Explain the steps you performed for loading the data sets into HDFS.

Overview  

This  assignment    requires    you    to    compile    a    set    of    data,    load    this    data    into    hdfs    and    to    write    a    map-­‐

reduce  process    that    will    extract    and    present    the    data    as    outlined    in    the    following    sections.

Background  

The  Wikimedia    Foundation,    Inc.    (http://wikimediafoundation.org/)    is    a    nonprofit    charitable    organization    dedicated    to    encouraging    the    growth,    development    and    distribution    of    free,    multilingual,    educational    content,    and    to    providing    the    full    content    of    these    wiki-­‐based    projects    to    the    public    free    of    charge.    The    Wikimedia    Foundation    operates    some    of    the    largest    collaboratively    edited    reference    projects    in    the    world;    you    are    probably    most    familiar    with    Wikipedia    which    is    a    free    encyclopedia    and    is    available    in   over    50    languages    (see    https://meta.wikimedia.org/wiki/List_of_Wikipedias    for    a    list    of    languages).

Information   on    all    the    projects    that    are    the    core    of    the    Wikimedia    Foundation    available    at

http://wikimediafoundation.org/wiki/Our_projects.

Aggregated    page    view    statistics    for    Wikimedia    projects    is    available    at    http://dumps.wikimedia.org/other/pagecounts-­raw/.         This    page    gives    access    to    files    that    contain    the    total    hourly    page    views    for    Wikimedia    project    pages    by    page.       Information    on    the    file    format    is    given    on    this    page    view    statistics    page.

Required    Tasks    

The  task    of    this    assignment    is    twofold:

  1. 1. Use  HDFS    and    MapReduce    to    identify    the    popularity    of    Wikipedia    projects    by    the    number    of    pages    of    each    Wikipedia    site    which    were    accessed    over    an    x    hour    period.    Your    job    should    allow    you    to    directly    identify    from    the    output    the    most    popular    Wikipedia    sites    accessed    over    the    time    period    selected.       You    can    choose    whichever    x    hour    period    you    wish    from    the    files    available    on    the    page    view    statistics    page,    with    the    constraint    that    x>=6.
  2. 2. Use  HDFS    and    MapReduce    to    identify    the    average    page    count    per    language    over    the    same

period,  ordered    by    page    count.

Deliverables  

You  will    be    required    to    document    your    approach    for    processing    the    data    and    producing    the    required

outputs  using    map-­‐reduce    only.

Your  report    (saved    as    a    PDF    document)    should    contain    the    following:

−    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS

−    Detaild  design,    including    diagrams    and    detailed    explanations    of    each    part    of    the    process

−    Explanations  of    any    design    decisions    (evaluating    alternatives)    and    any    assumptions    made

−    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process

−    Examples  of    the    output    files    from    the    map-­‐reduce    process    illustrating    the    data    produced    at

each  stage.

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

You  should    create    one    document/report    containing    all    the    material    for    each    item    listed    in   the    deliverables.    Convert    this    document    into    a    PDF.    It    is   this    PDF    document    that    should    be    submitted.    All    images    should    be    imbedded    in    this    document.

In  addition    to    the    report    the    output    files    from    the    map-­‐reduce    process    should    be    submitted.    You    will

need    to    extract    these    files    from    HDFS.

The  Report    and    the    Output    Files    should    be    ZIPPED    (only    zip    format    will    be    accepted)    and    it    is    this    ZIP

file  that    should    be    submitted    on    WebCourses.

You  will    need    to    submit    your    assignment    on    WebCourses.          You    cannot    submit    your    assignment    via

email.

Marking  Scheme    

The  marking    scheme    for    this    assignment    is:

−    10%                                                    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS.

−    25%                                                    Design  and    structure    of    the    map­‐reduce    process.

−    40%                                                    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process.

−    15%                                                    Extent  of    use    of    map-­‐reduce    features    and    scalability.

−    10%                                                    Output  files    from    the    map-­‐reduce    process.

The  documentation    for    your    assignment    must    contain    your    name,    your    student    number,    your    class,    course    (DT2??)    and    year    information,    assignment,    lecturer    name    and    your    Failure    to    give    this    information    will    incur    a    10%    penalty.

The  assignment    most    be    performed    individually.        

Each  submission    must    be    original    work    as    plagiarism    will    result    in    a    zero    mark    (0%).

DIT  Plagiarism    Policy    :    http://www.dit.ie/media/documents/campuslife/plagiarism.doc

    

There    will    be    a    10%    penalty    deduction    will    be    applied    for    each    day    the    assignment    is    late.            

    

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

There  is    no    penalty    for    submitting    early.    

Assignment  feedback    will    be    provided    on    Webcourses.

. Use HDFS and MapReduce to identify the average page count per language over the same

Overview  

This  assignment    requires    you    to    compile    a    set    of    data,    load    this    data    into    hdfs    and    to    write    a    map-­‐

reduce  process    that    will    extract    and    present    the    data    as    outlined    in    the    following    sections.

Background  

The  Wikimedia    Foundation,    Inc.    (http://wikimediafoundation.org/)    is    a    nonprofit    charitable    organization    dedicated    to    encouraging    the    growth,    development    and    distribution    of    free,    multilingual,    educational    content,    and    to    providing    the    full    content    of    these    wiki-­‐based    projects    to    the    public    free    of    charge.    The    Wikimedia    Foundation    operates    some    of    the    largest    collaboratively    edited    reference    projects    in    the    world;    you    are    probably    most    familiar    with    Wikipedia    which    is    a    free    encyclopedia    and    is    available    in   over    50    languages    (see    https://meta.wikimedia.org/wiki/List_of_Wikipedias    for    a    list    of    languages).

Information   on    all    the    projects    that    are    the    core    of    the    Wikimedia    Foundation    available    at

http://wikimediafoundation.org/wiki/Our_projects.

Aggregated    page    view    statistics    for    Wikimedia    projects    is    available    at    http://dumps.wikimedia.org/other/pagecounts-­raw/.         This    page    gives    access    to    files    that    contain    the    total    hourly    page    views    for    Wikimedia    project    pages    by    page.       Information    on    the    file    format    is    given    on    this    page    view    statistics    page.

Required    Tasks    

The  task    of    this    assignment    is    twofold:

  1. 1. Use  HDFS    and    MapReduce    to    identify    the    popularity    of    Wikipedia    projects    by    the    number    of    pages    of    each    Wikipedia    site    which    were    accessed    over    an    x    hour    period.    Your    job    should    allow    you    to    directly    identify    from    the    output    the    most    popular    Wikipedia    sites    accessed    over    the    time    period    selected.       You    can    choose    whichever    x    hour    period    you    wish    from    the    files    available    on    the    page    view    statistics    page,    with    the    constraint    that    x>=6.
  2. 2. Use  HDFS    and    MapReduce    to    identify    the    average    page    count    per    language    over    the    same

period,  ordered    by    page    count.

Deliverables  

You  will    be    required    to    document    your    approach    for    processing    the    data    and    producing    the    required

outputs  using    map-­‐reduce    only.

 

Your  report    (saved    as    a    PDF    document)    should    contain    the    following:

 

−    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS

−    Detaild  design,    including    diagrams    and    detailed    explanations    of    each    part    of    the    process

−    Explanations  of    any    design    decisions    (evaluating    alternatives)    and    any    assumptions    made

−    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process

−    Examples  of    the    output    files    from    the    map-­‐reduce    process    illustrating    the    data    produced    at

each  stage.

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

You  should    create    one    document/report    containing    all    the    material    for    each    item    listed    in   the    deliverables.    Convert    this    document    into    a    PDF.    It    is   this    PDF    document    that    should    be    submitted.    All    images    should    be    imbedded    in    this    document.

 

In  addition    to    the    report    the    output    files    from    the    map-­‐reduce    process    should    be    submitted.    You    will

need    to    extract    these    files    from    HDFS.

 

The  Report    and    the    Output    Files    should    be    ZIPPED    (only    zip    format    will    be    accepted)    and    it    is    this    ZIP

file  that    should    be    submitted    on    WebCourses.

 

You  will    need    to    submit    your    assignment    on    WebCourses.          You    cannot    submit    your    assignment    via

email.

Marking  Scheme    

The  marking    scheme    for    this    assignment    is:

−    10%                                                    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS.

−    25%                                                    Design  and    structure    of    the    map-­‐reduce    process.

−    40%                                                    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process.

−    15%                                                    Extent  of    use    of    map-­‐reduce    features    and    scalability.

−    10%                                                    Output  files    from    the    map-­‐reduce    process.

 

The  documentation    for    your    assignment    must    contain    your    name,    your    student    number,    your    class,    course    (DT2??)    and    year    information,    assignment,    lecturer    name    and    your    Failure    to    give    this    information    will    incur    a    10%    penalty.

 

The  assignment    most    be    performed    individually.        

 

Each  submission    must    be    original    work    as    plagiarism    will    result    in    a    zero    mark    (0%).

DIT  Plagiarism    Policy    :    http://www.dit.ie/media/documents/campuslife/plagiarism.doc

    

There    will    be    a    10%    penalty    deduction    will    be    applied    for    each    day    the    assignment    is    late.            

    

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

 

There  is    no    penalty    for    submitting    early.    

 

 

Assignment  feedback    will    be    provided    on    Webcourses.

Design and structure of the map­‐reduce process.

Overview  

This  assignment    requires    you    to    compile    a    set    of    data,    load    this    data    into    hdfs    and    to    write    a    map-­‐

reduce  process    that    will    extract    and    present    the    data    as    outlined    in    the    following    sections.

Background  

The  Wikimedia    Foundation,    Inc.    (http://wikimediafoundation.org/)    is    a    nonprofit    charitable    organization    dedicated    to    encouraging    the    growth,    development    and    distribution    of    free,    multilingual,    educational    content,    and    to    providing    the    full    content    of    these    wiki-­‐based    projects    to    the    public    free    of    charge.    The    Wikimedia    Foundation    operates    some    of    the    largest    collaboratively    edited    reference    projects    in    the    world;    you    are    probably    most    familiar    with    Wikipedia    which    is    a    free    encyclopedia    and    is    available    in   over    50    languages    (see    https://meta.wikimedia.org/wiki/List_of_Wikipedias    for    a    list    of    languages).

Information   on    all    the    projects    that    are    the    core    of    the    Wikimedia    Foundation    available    at

http://wikimediafoundation.org/wiki/Our_projects.

Aggregated    page    view    statistics    for    Wikimedia    projects    is    available    at    http://dumps.wikimedia.org/other/pagecounts-­raw/.         This    page    gives    access    to    files    that    contain    the    total    hourly    page    views    for    Wikimedia    project    pages    by    page.       Information    on    the    file    format    is    given    on    this    page    view    statistics    page.

Required    Tasks    

The  task    of    this    assignment    is    twofold:

  1. 1. Use  HDFS    and    MapReduce    to    identify    the    popularity    of    Wikipedia    projects    by    the    number    of    pages    of    each    Wikipedia    site    which    were    accessed    over    an    x    hour    period.    Your    job    should    allow    you    to    directly    identify    from    the    output    the    most    popular    Wikipedia    sites    accessed    over    the    time    period    selected.       You    can    choose    whichever    x    hour    period    you    wish    from    the    files    available    on    the    page    view    statistics    page,    with    the    constraint    that    x>=6.
  2. 2. Use  HDFS    and    MapReduce    to    identify    the    average    page    count    per    language    over    the    same

period,  ordered    by    page    count.

Deliverables  

You  will    be    required    to    document    your    approach    for    processing    the    data    and    producing    the    required

outputs  using    map-­‐reduce    only.

Your  report    (saved    as    a    PDF    document)    should    contain    the    following:

−    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS

−    Detaild  design,    including    diagrams    and    detailed    explanations    of    each    part    of    the    process

−    Explanations  of    any    design    decisions    (evaluating    alternatives)    and    any    assumptions    made

−    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process

−    Examples  of    the    output    files    from    the    map-­‐reduce    process    illustrating    the    data    produced    at

each  stage.

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

You  should    create    one    document/report    containing    all    the    material    for    each    item    listed    in   the    deliverables.    Convert    this    document    into    a    PDF.    It    is   this    PDF    document    that    should    be    submitted.    All    images    should    be    imbedded    in    this    document.

In  addition    to    the    report    the    output    files    from    the    map-­‐reduce    process    should    be    submitted.    You    will

need    to    extract    these    files    from    HDFS.

The  Report    and    the    Output    Files    should    be    ZIPPED    (only    zip    format    will    be    accepted)    and    it    is    this    ZIP

file  that    should    be    submitted    on    WebCourses.

You  will    need    to    submit    your    assignment    on    WebCourses.          You    cannot    submit    your    assignment    via

email.

Marking  Scheme    

The  marking    scheme    for    this    assignment    is:

−    10%                                                    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS.

−    25%                                                    Design  and    structure    of    the    map-­‐reduce    process.

−    40%                                                    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process.

−    15%                                                    Extent  of    use    of    map-­‐reduce    features    and    scalability.

−    10%                                                    Output  files    from    the    map-­‐reduce    process.

The  documentation    for    your    assignment    must    contain    your    name,    your    student    number,    your    class,    course    (DT2??)    and    year    information,    assignment,    lecturer    name    and    your    Failure    to    give    this    information    will    incur    a    10%    penalty.

The  assignment    most    be    performed    individually.        

Each  submission    must    be    original    work    as    plagiarism    will    result    in    a    zero    mark    (0%).

DIT  Plagiarism    Policy    :    http://www.dit.ie/media/documents/campuslife/plagiarism.doc

    

There    will    be    a    10%    penalty    deduction    will    be    applied    for    each    day    the    assignment    is    late.            

    

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

There  is    no    penalty    for    submitting    early.    

Assignment  feedback    will    be    provided    on    Webcourses.

Extent of use of map­‐reduce features and scalability.

Overview  

This  assignment    requires    you    to    compile    a    set    of    data,    load    this    data    into    hdfs    and    to    write    a    map-­‐

reduce  process    that    will    extract    and    present    the    data    as    outlined    in    the    following    sections.

Background  

The  Wikimedia    Foundation,    Inc.    (http://wikimediafoundation.org/)    is    a    nonprofit    charitable    organization    dedicated    to    encouraging    the    growth,    development    and    distribution    of    free,    multilingual,    educational    content,    and    to    providing    the    full    content    of    these    wiki-­‐based    projects    to    the    public    free    of    charge.    The    Wikimedia    Foundation    operates    some    of    the    largest    collaboratively    edited    reference    projects    in    the    world;    you    are    probably    most    familiar    with    Wikipedia    which    is    a    free    encyclopedia    and    is    available    in   over    50    languages    (see    https://meta.wikimedia.org/wiki/List_of_Wikipedias    for    a    list    of    languages).

Information   on    all    the    projects    that    are    the    core    of    the    Wikimedia    Foundation    available    at

http://wikimediafoundation.org/wiki/Our_projects.

Aggregated    page    view    statistics    for    Wikimedia    projects    is    available    at    http://dumps.wikimedia.org/other/pagecounts-­raw/.         This    page    gives    access    to    files    that    contain    the    total    hourly    page    views    for    Wikimedia    project    pages    by    page.       Information    on    the    file    format    is    given    on    this    page    view    statistics    page.

Required    Tasks    

The  task    of    this    assignment    is    twofold:

  1. 1. Use  HDFS    and    MapReduce    to    identify    the    popularity    of    Wikipedia    projects    by    the    number    of    pages    of    each    Wikipedia    site    which    were    accessed    over    an    x    hour    period.    Your    job    should    allow    you    to    directly    identify    from    the    output    the    most    popular    Wikipedia    sites    accessed    over    the    time    period    selected.       You    can    choose    whichever    x    hour    period    you    wish    from    the    files    available    on    the    page    view    statistics    page,    with    the    constraint    that    x>=6.
  2. 2. Use  HDFS    and    MapReduce    to    identify    the    average    page    count    per    language    over    the    same

period,  ordered    by    page    count.

Deliverables  

You  will    be    required    to    document    your    approach    for    processing    the    data    and    producing    the    required

outputs  using    map-­‐reduce    only.

 

Your  report    (saved    as    a    PDF    document)    should    contain    the    following:

 

−    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS

−    Detaild  design,    including    diagrams    and    detailed    explanations    of    each    part    of    the    process

−    Explanations  of    any    design    decisions    (evaluating    alternatives)    and    any    assumptions    made

−    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process

−    Examples  of    the    output    files    from    the    map-­‐reduce    process    illustrating    the    data    produced    at

each  stage.

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

You  should    create    one    document/report    containing    all    the    material    for    each    item    listed    in   the    deliverables.    Convert    this    document    into    a    PDF.    It    is   this    PDF    document    that    should    be    submitted.    All    images    should    be    imbedded    in    this    document.

 

In  addition    to    the    report    the    output    files    from    the    map-­‐reduce    process    should    be    submitted.    You    will

need    to    extract    these    files    from    HDFS.

 

The  Report    and    the    Output    Files    should    be    ZIPPED    (only    zip    format    will    be    accepted)    and    it    is    this    ZIP

file  that    should    be    submitted    on    WebCourses.

 

You  will    need    to    submit    your    assignment    on    WebCourses.          You    cannot    submit    your    assignment    via

email.

Marking  Scheme    

The  marking    scheme    for    this    assignment    is:

−    10%                                                    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS.

−    25%                                                    Design  and    structure    of    the    map-­‐reduce    process.

−    40%                                                    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process.

−    15%                                                    Extent  of    use    of    map­‐reduce    features    and    scalability.

−    10%                                                    Output  files    from    the    map-­‐reduce    process.

 

The  documentation    for    your    assignment    must    contain    your    name,    your    student    number,    your    class,    course    (DT2??)    and    year    information,    assignment,    lecturer    name    and    your    Failure    to    give    this    information    will    incur    a    10%    penalty.

 

The  assignment    most    be    performed    individually.        

 

Each  submission    must    be    original    work    as    plagiarism    will    result    in    a    zero    mark    (0%).

DIT  Plagiarism    Policy    :    http://www.dit.ie/media/documents/campuslife/plagiarism.doc

    

There    will    be    a    10%    penalty    deduction    will    be    applied    for    each    day    the    assignment    is    late.            

    

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

 

There  is    no    penalty    for    submitting    early.    

 

 

Assignment  feedback    will    be    provided    on    Webcourses.

Use HDFS and MapReduce to identify the popularity of Wikipedia projects by the number of pages of each Wikipedia site which were accessed over an x hour period. Your job should allow you to directly identify from the output the most popular Wikipedia sites accessed over the time period selected. You can choose whichever x hour period you wish from the files available on the page view statistics page, with the constraint that x>=6.

Overview  

This  assignment    requires    you    to    compile    a    set    of    data,    load    this    data    into    hdfs    and    to    write    a    map-­‐

reduce  process    that    will    extract    and    present    the    data    as    outlined    in    the    following    sections.

Background  

The  Wikimedia    Foundation,    Inc.    (http://wikimediafoundation.org/)    is    a    nonprofit    charitable    organization    dedicated    to    encouraging    the    growth,    development    and    distribution    of    free,    multilingual,    educational    content,    and    to    providing    the    full    content    of    these    wiki-­‐based    projects    to    the    public    free    of    charge.    The    Wikimedia    Foundation    operates    some    of    the    largest    collaboratively    edited    reference    projects    in    the    world;    you    are    probably    most    familiar    with    Wikipedia    which    is    a    free    encyclopedia    and    is    available    in   over    50    languages    (see    https://meta.wikimedia.org/wiki/List_of_Wikipedias    for    a    list    of    languages).

Information   on    all    the    projects    that    are    the    core    of    the    Wikimedia    Foundation    available    at

http://wikimediafoundation.org/wiki/Our_projects.

Aggregated    page    view    statistics    for    Wikimedia    projects    is    available    at    http://dumps.wikimedia.org/other/pagecounts-­raw/.         This    page    gives    access    to    files    that    contain    the    total    hourly    page    views    for    Wikimedia    project    pages    by    page.       Information    on    the    file    format    is    given    on    this    page    view    statistics    page.

 

Required    Tasks    

The  task    of    this    assignment    is    twofold:

  1. 1. Use  HDFS    and    MapReduce    to    identify    the    popularity    of    Wikipedia    projects    by    the    number    of    pages    of    each    Wikipedia    site    which    were    accessed    over    an    x    hour    period.    Your    job    should    allow    you    to    directly    identify    from    the    output    the    most    popular    Wikipedia    sites    accessed    over    the    time    period    selected.       You    can    choose    whichever    x    hour    period    you    wish    from    the    files    available    on    the    page    view    statistics    page,    with    the    constraint    that    x>=6.
  2. 2. Use  HDFS    and    MapReduce    to    identify    the    average    page    count    per    language    over    the    same

period,  ordered    by    page    count.

Deliverables  

You  will    be    required    to    document    your    approach    for    processing    the    data    and    producing    the    required

outputs  using    map-­‐reduce    only.

 

Your  report    (saved    as    a    PDF    document)    should    contain    the    following:

 

−    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS

−    Detaild  design,    including    diagrams    and    detailed    explanations    of    each    part    of    the    process

−    Explanations  of    any    design    decisions    (evaluating    alternatives)    and    any    assumptions    made

−    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process

−    Examples  of    the    output    files    from    the    map-­‐reduce    process    illustrating    the    data    produced    at

each  stage.

 

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

 

 

You  should    create    one    document/report    containing    all    the    material    for    each    item    listed    in   the    deliverables.    Convert    this    document    into    a    PDF.    It    is   this    PDF    document    that    should    be    submitted.    All    images    should    be    imbedded    in    this    document.

 

In  addition    to    the    report    the    output    files    from    the    map-­‐reduce    process    should    be    submitted.    You    will

need    to    extract    these    files    from    HDFS.

 

The  Report    and    the    Output    Files    should    be    ZIPPED    (only    zip    format    will    be    accepted)    and    it    is    this    ZIP

file  that    should    be    submitted    on    WebCourses.

 

You  will    need    to    submit    your    assignment    on    WebCourses.          You    cannot    submit    your    assignment    via

email.

Marking  Scheme    

The  marking    scheme    for    this    assignment    is:

−    10%                                                    Explanation  of    the    steps    you    performed    for    loading    the    data    sets    into    HDFS.

−    25%                                                    Design  and    structure    of    the    map-­‐reduce    process.

−    40%                                                    Well  written    and    fully    commented    Java    code    for    the    map-­‐reduce    process.

−    15%                                                    Extent  of    use    of    map-­‐reduce    features    and    scalability.

−    10%                                                    Output  files    from    the    map-­‐reduce    process.

 

The  documentation    for    your    assignment    must    contain    your    name,    your    student    number,    your    class,    course    (DT2??)    and    year    information,    assignment,    lecturer    name    and    your    Failure    to    give    this    information    will    incur    a    10%    penalty.

 

The  assignment    most    be    performed    individually.        

 

Each  submission    must    be    original    work    as    plagiarism    will    result    in    a    zero    mark    (0%).

DIT  Plagiarism    Policy    :    http://www.dit.ie/media/documents/campuslife/plagiarism.doc

    

There    will    be    a    10%    penalty    deduction    will    be    applied    for    each    day    the    assignment    is    late.            

    

The    output    files    from    the    map-­‐reduce    process    should    be    included.    If    these    are    not    included    then    

your  assignment    mark    will    be    reduced    by    30%.    

 

There  is    no    penalty    for    submitting    early.    

 

 

Assignment  feedback    will    be    provided    on    Webcourses.

 

Post your thoughts on whether Edward Snowden should be viewed as a patriot or a traitor to the Discussion Forum.

Question description

Directions

1. Review article “Edward Joseph Snowden.” Bio. A&E Television Networks, 2014. Web. 05 Aug.2014.

http://www.biography.com/people/edward-snowden-21262897#synopsis

2. Read the article “Edward Snowden: Hero or Traitor?” transcript of a case study, Harvard John F. Kennedy School of Government.

http://www.hks.harvard.edu/news-events/news/articles/edward-snowden-hero-or-traitor

3. Other articles:

    • CNN U.S. “Edward Snowden’s Interview: Ten Things We Learned” by Catherine Shoichet

http://www.cnn.com/2014/05/29/us/edward-snowden-interview-10-things/

    • “Would You Feel Differently about Snowden, Greenwald, and Assange If You Knew What They Really Thought?” by Sean Wilentz, contributing editor at New Republic and Professor of American History, Princeton University.

http://www.newrepublic.com/article/116253/edward-snowden-glenn-greenwald-julian-assange-what-they-believe

4. Post your thoughts on whether Edward Snowden should be viewed as a patriot or a traitor to the Discussion Forum.

5. Use the Discussion Forum – Traitor or Patriot? to address this topic by posting your thoughts on the question posed.Your post must be substantive.You may also respond to other student’s ideas.

Purpose

Students will assess the costs v. benefits of leaking classified materials, and determining if it is justified.

To get a custom written paper, place an order with us!

Additional Benefits for you

♦ 24/7 customer support

♦ On-time delivery guarantee

♦ Plagiarism-free research papers

♦ Affordable and student-friendly prices

♦ Scholarly-rich custom-written papers

♦ 100% privacy and confidentiality

Does remaking the United States military very adaptable to this new type of conflict create the very skills and technology that allows political leaders to engage in intrastate, asymmetrical conflicts they should avoid?

Question description

Directions

1. Read the Defense Threat Reduction Agency Report on various issues regarding asmmetrical conflict, “Institute for Defense Analysis – Asymmetric Conflict 2010”

http://www.au.af.mil/au/awc/awcgate/dtra/d2538dtra.pdf

2. Read the article, “A Critical Juncture: American Foreign Policy and Asymmetrical Warfare Strategic Insights,” Vol. VIII, Issue 2, April 2009. http://www.hsdl.org/?view&did=36081

3 Read the Book Review of The Insurgents: David Petraeus and the Plot to Change the American Way of War by Fred Kaplan (New York: Simon & Schuster, Inc. 2013) Review Strategic Studies Institute by Brigadier General Kimberly C. Field, Deputy Director, Strategy Plans and Policy, DA3/5/7

http://strategicstudiesinstitute.army.mil/pubs/Parameters/Issues/Summer_2013/Reviews/Kaplan-TheInsurgents_BR.pdf

4. Submit Response Assignment: Does remaking the United States military very adaptable to this new type of conflict create the very skills and technology that allows political leaders to engage in intrastate, asymmetrical conflicts they should avoid?

To get a custom written paper, place an order with us!

Additional Benefits for you

♦ 24/7 customer support

♦ On-time delivery guarantee

♦ Plagiarism-free research papers

♦ Affordable and student-friendly prices

♦ Scholarly-rich custom-written papers

♦ 100% privacy and confidentiality

Is ethical leadership essential to the development of ethical decision-making in modern organisation?

Question description

Is ethical leadership essential to the development of ethical decision-making in modern organisation?

Think of writing this research essay as participating a debate and argue either in the affirmative (for) or the negative (against). In arguing your case you are required to anticipate the response from the alternative argument and counter those arguments in your essay.

>> 2000 Words research essay

>> Use at least 12 references: academic journal articles, textbook or other quality references

> Harvard style referencing (in text and reference list)

To get a custom written paper, place an order with us!

Additional Benefits for you

♦ 24/7 customer support

♦ On-time delivery guarantee

♦ Plagiarism-free research papers

♦ Affordable and student-friendly prices

♦ Scholarly-rich custom-written papers

♦ 100% privacy and confidentiality

Describe the methods and best practices in implementing process change in IT organizations.

Question description

PROJECT DELIVERABLE 5: NETWORK INFRASTRUCTURE AND SECURITY

This assignment consists of two (2) sections: an infrastructure document and a revised project plan. You must submit both sections as separate files for the completion of this assignment. Label each file name according to the section of the assignment it is written for. Additionally, you may create and / or assume all necessary assumptions needed for the completion of this assignment.

With the parameters set forth at the onset of the project, present the infrastructure and security policy that will support the expected development and growth of the organization. The network solution that is chosen should support the conceived information system and allow for scalability. The network infrastructure will support organizational operations; therefore, a pictorial view of workstations, servers, routers, bridges, gateways, and access points should be used. Since the company will be merging with a multinational company, virtualization and cloud technology should be taken into consideration. In addition, access paths for Internet access should be depicted. A narrative should be included to explain all the nodes of the network and the rationale for the design. Lastly, using the Confidentiality, Integrity and Availability (CIA) Triangle, define the organizational security policy.

Section 1: Infrastructure Document

Write a five to ten (5-10) page infrastructure document in which you:

  1. Identify possible network infrastructure vulnerabilities. Address network vulnerabilities with the appropriate security measures. Ensure that consideration is given to virtualization and cloud technology.
  2. Design a logical and physical topographical layout of the planned network through the use of graphical tools in Microsoft Word or Visio, or an open source alternative such as Dia. Explain the rationale for the logical and physical topographical layout of the planned network. Note: The graphically depicted solution is not included in the required page length.
  3. Illustrate the possible placement of servers, including access paths to the Internet and firewalls. Note: facility limitations, workstations, printers, routers, switches, bridges, and access points should be considered in the illustration.
  4. Create and describe a comprehensive security policy for the company that will:
  • Protect the company infrastructure and assets by applying the principals of CIA. Note: CIA is a widely used benchmark for evaluation of information systems security, focusing on the three (3) core goals of confidentiality, integrity, and availability of information.
  • Address ethical aspects related to employee behavior, contractors, password usage, and access to networked resources and information.

Your assignment must follow these formatting requirements:

  • Be typed, double spaced, using Times New Roman font (size 12), with one-inch margins on all sides; citations and references must follow APA or school-specific format. Check with your professor for any additional instructions.
  • Include a cover page containing the title of the assignment, the student’s name, the professor’s name, the course title, and the date. The cover page and the reference page are not included in the required assignment page length.
  • Include charts or diagrams created in MS Visio or Dia as an appendix of the infrastructure document. All references to these diagrams must be included in the body of the infrastructure document.

Section 2: Revised Project Plan

Use Microsoft Project to:

  1. Update the project plan (summary and detail) template, from Project Deliverable 4: Cloud Technology and Virtualization, with three to five (3-5) new project tasks each consisting of five to ten (5-10) subtasks.

The specific course learning outcomes associated with this assignment are:

  • Describe the methods and best practices in implementing process change in IT organizations.
  • Describe the role and methods of technology-induced process improvement in organizations.
  • Use technology and information resources to research issues in information systems.
  • Write clearly and concisely about leadership issues and strategic insight of the Information systems domain using proper writing mechanics and technical style conventions.

To get a custom written paper, place an order with us!

Additional Benefits for you

♦ 24/7 customer support

♦ On-time delivery guarantee

♦ Plagiarism-free research papers

♦ Affordable and student-friendly prices

♦ Scholarly-rich custom-written papers

♦ 100% privacy and confidentiality

how ancient egypt influenced the modern world?

Question description

how ancient egypt influenced the modern world? write a page no less than 10 sentences answering this question please no plagiarism please

To get a custom written paper, place an order with us!

Additional Benefits for you

♦ 24/7 customer support

♦ On-time delivery guarantee

♦ Plagiarism-free research papers

♦ Affordable and student-friendly prices

♦ Scholarly-rich custom-written papers

♦ 100% privacy and confidentiality