El curso ofrece los conceptos clave y la experiencia que los participantes necesitan para introducir y procesar datos en un clúster Hadoop utilizando las herramientas y técnicas más actuales tales como Spark (incluyendo Spark Streaming y Spark SQL), Flume, Kafka y Sqoop. Este curso proporciona la mejor preparación para los desafíos del mundo real que enfrentan los desarrolladores de Hadoop.
Con Spark, los desarrolladores pueden escribir sofisticadas aplicaciones en paralelo para tomar mejores decisiones, más rápidas y acciones interactivas, aplicadas a una amplia variedad de casos de uso, arquitecturas e industrias.
Asimismo, se adquirirán conocimientos de SQL, Python y Scala, lenguajes necesarios para trabajar con el Framework de Spark.
PUE es Training Partner oficial de Cloudera, autorizado por dicha multinacional para impartir formación oficial en tecnologías Cloudera.
PUE está también acreditado y reconocido para realizar servicios de consultoría y mentoring en la implementación de soluciones Cloudera en el ámbito empresarial con el consiguiente valor añadido en el enfoque práctico y de negocio del conocimiento que se traslada en sus cursos oficiales.
El curso se imparte en modalidad mixta, combinando sesiones presenciales (175h) con formación online (55h) para facilitar un aprendizaje flexible y adaptado a los ritmos y disponibilidad de cada alumno.
El curso está especialmente ideado para desarrolladores e ingenieros con experiencia en programación. Los ejemplos y ejercicios se presentan en Python y Scala, por ello se requiere el conocimiento de uno de estos lenguajes de programación. También es necesario tener conocimientos básicos de Linux y conocimientos de SQL serán de utilidad. No se requiere conocimiento previo de Hadoop.
Al finalizar la formación, el participante sabrá:
- Cómo distribuir, almacenar y procesar datos en un clúster Hadoop
- Cómo escribir, configurar e implementar aplicaciones Apache Spark en un clúster Hadoop
- Cómo utilizar el shell Spark para el análisis interactivo de datos
- Cómo procesar y consultar datos estructurados utilizando Spark SQL
- Cómo utilizar Spark Streaming para procesar un flujo de datos en vivo
- Cómo utilizar Flume y Kafka para ingerir datos para Spark Streaming
La Certificación Cloudera Certified Associate Spark and Hadoop Developer ha sido diseñada para comprobar que los candidatos controlan los conceptos y habilidades requeridas en las siguientes áreas:
- Ingesta de datos
- Transformación, almacenamiento y organización
- Análisis de datos
Tras la realización del presente curso oficial el alumno estará preparado para superar el examen de certificación Cloudera Certified Associate Spark and Hadoop Developer, incluído en este curso si se supera con satisfacción toda la formación.
Más información sobre la certificación CCA Spark and Hadoop Developer en el siguiente enlace.
Paso 1.
Cumplir con los requisitos de acceso al proyecto, que son:
- Tener una edad comprendida entre los 16 y los 29 años
- Estar en situación legal de desempleo
- Nacionalidad española o ser ciudadano de la Unión Europea
- Estar empadronado en España
- Estar inscrito en el Registro del Sistema Nacional de Garantía Juvenil. ¿No estás inscrito? Te ayudamos
Paso 2.
Preinscribirte al curso que sea de tu interés en esta web.
Paso 3.
Realizar la prueba de selección, a la que solo tendrás acceso si te has preinscrito antes en un curso, presentando ese mismo día la siguiente documentación:
- Currículum Vitae actualizado
- Fotocopia del DNI
- Fotocopia de la demanda de empleo
La lista de admitidos se publicará en esta web y se informará personalmente a los candidatos seleccionados vía correo electrónico.
¿Dudas? Envíanos un email a jovenestic@pue.es o llámanos (93 206 02 49 PUE Barcelona - 91 162 06 69 PUE Madrid) indicando que tu motivo de consulta es en relación a la convocatoria de formación subvencionada para jóvenes TIC menores de 30 años.
MÓDULO 1: INTRODUCCIÓN A SQL
- Introducción
- Base de datos básica
- Estructura de base de datos
- El uso de SQL
- Creación de una base de datos
- Las consultas básicas
- Mantenimiento de la Base de datos
- Copia de tablas y modificaciones de columnas
- Índices y restricciones
- Eliminar o modificar filas de la tabla de datos
- Funciones: uso y tipos
- Funciones específicas
- Joins
- Exportación de datos, consultas y utilidades
- Importación de datos y de archivos de datos
- Importación con sentencias y utilidades
- Subconsultas generales y básicas
- Subconsulta no correlacionada y correlacionada
- Tipos de subconsultas
- Modificación de la tabla con subconsultas
- Motores de almacenamiento
- Creación de Vistas
- Transacciones
- Recuperación de Metadatos
- Conclusiones
MÓDULO 2: INTRODUCCIÓN A LINUX
- Evolución de Linux y de los sistemas operativos más populares
- Principales aplicaciones de código abierto
- Entender el software de código abierto y la política de licencias
- Habilidades ICT y el trabajo con Linux
- Aspectos básicos de la línea de comandos
- Utilizar la línea de comandos para obtener ayuda
- Utilizar directorios y listar los archivos
- Crear, mover y eliminar archivos
- Guardar archivos en la línea de comandos
- Buscar y extraer datos de archivos
- Convertir los comandos en scripts
- Seleccionar un sistema operativo
- Entender el hardware del ordenador
- Saber dónde se guardan los datos
- Conectar nuestro ordenador a una red
- Seguridad básica e identificación de los tipos de usuarios
- Creación de usuarios y grupos
- Administración de la propiedad y los permisos de los archivos
- Directorios y archivos especiales
MÓDULO 3: INTRODUCCIÓN A LA PROGRAMACIÓN ORIENTADA A OBJETOS EN JAVA
- ¿Cómo es un programa Java?
- Crear una clase principal en Java
- Tipos de datos en Java
- Uso de arrays y matrices
- Uso de objetos y clases
- Manipular y formatear los datos en su programa
- Uso de métodos
- Uso de encapsulación
- Condicionales o estructuras de decisión
- Bucles o estructuras de iteración
- Uso de herencia
- Uso de interfaces
- Gestión de excepciones
MÓDULO 4: PROGRAMACIÓN PYTHON
- Introducción
- Introducción to Python
- Variables en Python
- Colecciones en Python
- Flujo de control en Python
- Estructura de Programación en Python
- Trabajo con librerías en Python
- Conclusión
MÓDULO 5: PROGRAMACIÓN SCALA
- Introducción
- Scala Overview
- Introducción a Scala
- Procesamiento de Datos
- La motivación de Scala
- Básicos Scala
- Trabajo con tipos de datos
- Agrupación de datos
- Flujo de control en Scala
- Uso y creación de librerías
- Conclusión
MÓDULO 6: CLOUDERA DESARROLLADOR PARA SPARK & HADOOP
- Introducción
- Introducción a Apache Hadoop y el ecosistema Hadoop
- Archivos de almacenamiento de Apache Hadoop
- Proceso de datos en un cluster de Apache Hadoop
- Relación de datos importados con Apache Sqoop
- Fundamentos de Apache Spark
- Trabajar con RDDs
- Agregación de datos en pares RDDs
- Escritura y ejecución de aplicaciones de Apache Spark
- Configuración de aplicaciones de Apache Spark
- Procesos pararlelos en Apache Spark
- Persistencia de RDD
- Patrones comunes de proceso de datos en Apache Spark
- DataFrames y Spark SQL
- Procesamiento de mensajes con Apache Kafka
- Captura de datos con Apache Flume
- Integración de Apache Flume y Apache Kafka
- Apache Spark Streaming: Introducción a DStreams
- Apache Spark Streaming: Procesado de múltiples Batches
- Apache Spark Streaming: Data Sources
- Conclusión