Arquitectura big data (IFCT127PO)

    • Precio

      0€

Próximas convocatorias

02 jun 2022
23 ago 2022
  •   Formación teleformación
  • Intersectorial

  •   165 horas teleformación
06 jun 2022
25 ago 2022
  •   Formación teleformación
  • Intersectorial

  •   165 horas teleformación
06 jun 2022
25 ago 2022
  •   Formación teleformación
  • Intersectorial

  •   165 horas teleformación
29 jun 2022
16 sep 2022
  •   Formación teleformación
  • Intersectorial

  •   165 horas teleformación
01 ago 2022
20 oct 2022
  •   Formación teleformación
  • Intersectorial

  •   165 horas teleformación

Inscripción recibida.

Error, vuelva a intentarlo.

Enviando inscripción

Arquitectura big data (IFCT127PO)

Sectores

Intersectorial

Áreas

Marketing digital; Programación

Dirigido a

Autónomos; Economia Social; Empleados

Disponible en las siguientes provincias

Albacete, Alicante, Almería, Araba/Álava, Asturias, Ávila, Badajoz, Barcelona, Burgos, Caceres, Cádiz, Cantabria, Castellón, Ceuta, Ciudad Real, Cordoba, Cuenca, Girona, Granada, Guadalajara, Huelva, Huesca, Illes Balears, Jaén, La Rioja, Las Palmas, León, Lleida, Lugo, Madrid, Málaga, Melilla, Murcia, Navarra, Ourense, Palencia, Pontevedra, Salamanca, Santa Cruz, Segovia, Sevilla, Soria, Tarragona, Teruel, Toledo, Valencia, Valladolid, Zamora, Zaragoza

Objetivos

Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.

Contenidos

1. Batch processing.
1.1. Hadoop.
1.2. Pig.
1.3. Hive.
1.4. Sqoop.
1.5. Flume.
1.6. Spark Core.
1.7. Spark 2.0.

2. Streaming processing.
2.1. Fundamentos de Streaming Processing.
2.2. Spark Streaming.
2.3. Kafka.
2.4. Pulsar y Apache Apex.
2.5. Implementación de un sistema real-time.

3. Sistemas NOSQL.
3.1. Hbase.
3.2. Cassandra.
3.3. MongoDB.
3.4. Neo4J.
3.5. Redis.
3.6. Berkeley DB.

4. Interactive query.
4.1. Lucene + Solr.

5. Sistemas de computación híbridos.
5.1. Arquitectura Lambda.
5.2. Arquitectura Kappa.
5.3. Apache Flink e implementaciones prácticas.
5.4. Druid.
5.5. ElasticSearch.
5.6. Logstash.
5.7. Kibana.

6. Cloud computing.
6.1. Amazon Web Services.
6.2. Google Cloud Platform.

7. Administración de sistemas big.
7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.
7.2. Optimización y monitorización de servicios.
7.3. Seguridad: Apache Knox, Ranger y Sentry.

8. Visualización de datos.
8.1. Herramientas de visualización: Tableau y CartoDB.
8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.

Requisitos para Programación:
Intersectorial

Objetivos:

Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.

Contenidos:

  1. Batch processing.

1.1. Hadoop.

1.2. Pig.

1.3. Hive.

1.4. Sqoop.

1.5. Flume.

1.6. Spark Core.

1.7. Spark 2.0.

  1. Streaming processing.

2.1. Fundamentos de Streaming Processing.

2.2. Spark Streaming.

2.3. Kafka.

2.4. Pulsar y Apache Apex.

2.5. Implementación de un sistema real-time.

  1. Sistemas NOSQL.

3.1. Hbase.

3.2. Cassandra.

3.3. MongoDB.

3.4. Neo4J.

3.5. Redis.

3.6. Berkeley DB.

  1. Interactive query.

4.1. Lucene + Solr.

  1. Sistemas de computación híbridos.

5.1. Arquitectura Lambda.

5.2. Arquitectura Kappa.

5.3. Apache Flink e implementaciones prácticas.

5.4. Druid.

5.5. ElasticSearch.

5.6. Logstash.

5.7. Kibana.

  1. Cloud computing.

6.1. Amazon Web Services.

6.2. Google Cloud Platform.

  1. Administración de sistemas big.

7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.

7.2. Optimización y monitorización de servicios.

7.3. Seguridad: Apache Knox, Ranger y Sentry.

  1. Visualización de datos.

8.1. Herramientas de visualización: Tableau y CartoDB.

8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.

Requisitos para Marketing digital:
Intersectorial

Objetivos:

Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.

Contenidos:

  1. Batch processing.

1.1. Hadoop.

1.2. Pig.

1.3. Hive.

1.4. Sqoop.

1.5. Flume.

1.6. Spark Core.

1.7. Spark 2.0.

  1. Streaming processing.

2.1. Fundamentos de Streaming Processing.

2.2. Spark Streaming.

2.3. Kafka.

2.4. Pulsar y Apache Apex.

2.5. Implementación de un sistema real-time.

  1. Sistemas NOSQL.

3.1. Hbase.

3.2. Cassandra.

3.3. MongoDB.

3.4. Neo4J.

3.5. Redis.

3.6. Berkeley DB.

  1. Interactive query.

4.1. Lucene + Solr.

  1. Sistemas de computación híbridos.

5.1. Arquitectura Lambda.

5.2. Arquitectura Kappa.

5.3. Apache Flink e implementaciones prácticas.

5.4. Druid.

5.5. ElasticSearch.

5.6. Logstash.

5.7. Kibana.

  1. Cloud computing.

6.1. Amazon Web Services.

6.2. Google Cloud Platform.

  1. Administración de sistemas big.

7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.

7.2. Optimización y monitorización de servicios.

7.3. Seguridad: Apache Knox, Ranger y Sentry.

  1. Visualización de datos.

8.1. Herramientas de visualización: Tableau y CartoDB.

8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.