Índice de contenidos
Esta charla está a cargo de Yudy Maribel Borda, graduada en el 2000 como Ingeniera de Sistemas de la Universidad Católica de Colombia y en 2006 como Especialista en Automatización de Procesos Industriales de la Universidad de los Andes.
La Inteligencia Artificial está ya con nosotros en distintos tipos de aplicaciones que simulan el comportamiento humano como son; sistemas automáticos de visión, reconocimiento de voz, reconocimiento de patrones, robótica, entre otros. Los avances tecnológicos en distintos sectores han permitido mejorar la democratización del uso de herramientas tecnológicas de código abierto y acceso a ambientes de nube con sistemas distribuidos, realizando apertura a la comunidad de profesionales, emprendedores, pequeñas y medianas empresas, pero para realizar un buen aprovechamiento de estos ecosistemas, se hace necesario fortalecer las competencias profesionales en distintas ciencias tales como: Ciencias de la computación, estadística, matemáticas, expertos en procesos de negocio, para generar un nuevo esquema interdisciplinario como es la ciencia de datos y lograr más allá de la innovación, proporcionar valor a las compañías y clientes, así como nuevas oportunidades de solución a problemáticas existentes en distintos sectores.
La aplicación de distintos tipos de inteligencia artificial tales como: robótica, redes neuronales artificiales, sistemas expertos y agentes inteligentes, están fortaleciendo distintos sectores económicos e industriales para mejorar sus procesos, conocer información en tiempo real y analizar grandes volúmenes de información, modelar y comprender el aprendizaje humano e integrarlos a un espacio físico de interacción con las personas para facilitar actividades de difícil ejecución y análisis del ser humano.
BigData es un término que describe el gran volumen de datos y se asocian a conjuntos de datos o combinaciones de conjuntos de datos que pueden ser complejos y/o variables y su velocidad de crecimiento dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales y estadísticas convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles, por ejemplo aumentar la capacidad de búsqueda para realizar análisis semánticos de texto en bruto para que los usuarios de la red puedan encontrar los documentos que buscan entre billones de páginas web con solo escribir unas cuantas palabras. Los módulos presentados son:
MÓDULO 1 – Introducción al ecosistema Apache Hadoop
Introducción de conceptos básicos sobre el uso de Apache Hadoop y su utilización para plantear análisis de grandes conjuntos de datos. Se presentan las herramientas principales y la arquitectura del sistema.
MÓDULO 2 – Tecnologías SQL y NoSQL. Consistencia, fiabilidad y escalabilidad
Introducción a conceptos básicos sobre la naturaleza de los datos a tratar y de qué forma los sistemas NoSQL se diferencian de las bases de datos relacionales SQL.
MÓDULO 3 – Adquisición de datos
Presentación de los desafíos para resolver a la hora de incorporar datos a los sistemas NoSQL y una breve introducción a las herramientas asociadas al ecosistema Hadoop más importantes.
MÓDULO 4 – Herramientas para el análisis de datos industrial
Análisis industrial de grandes volúmenes de datos y se introducen una serie de herramientas y sistemas de segunda generación dedicados a resolver necesidades específicas de la industria.
El ‘machine learning’ –aprendizaje automático– es una disciplina científica en el ámbito de la inteligencia artificial donde se crean sistemas que permiten un aprendizaje automático identificando patrones entre los datos para luego generar predicciones sobre los mismos. Existen muchos ejemplos de aplicabilidad tales como: las recomendaciones de Netflix o Spotify, las respuestas inteligentes de Gmail o las ejecución de instrucciones de voz humana de Siri y Alexa. Sus procesos van desde el aprendizaje de datos sin requerir una programación y descubriendo patrones para apoyar la toma de decisiones sobre dichos datos predecidos.
MODULO 1 – Machine Learning – Introducción
Se explicará qué es el aprendizaje automático (AA), se enumeran algunas aplicaciones de
aprendizaje automático e identificar las principales técnicas de AA, diferencias entre el
aprendizaje supervisado y no supervisados e identificará los pasos del proceso de AA
MODULO 2 – Machine Learning – Exploración de Datos
Se describe qué son las características categóricas y numérica, objetivo de la exploración de datos, y qué estadísticas son comunes y aspectos generales de un conjunto de datos, incluida la muestra, la variable, la unidad de medida, entre otros.
MÓDULO 3 – Machine Learning – Clasificación
Revisar en detalle el proceso de clasificación y los algoritmos de clasificación para un proceso supervisado, tales como: kNN, Árboles de Decisión y Naive Bayes. Al final se visualizará un ejemplo de Árboles de Decisión con la herramienta KNIME
MÓDULO 4 – Machine Learning – Regresión
Definir cuál es la tarea de regresión, Explicar la diferencia entre regresión y clasificación. Dar
ejemplos de algunas aplicaciones de regresión. Describir cómo funciona la regresión lineal.
Google ha desarrollado un entorno de desarrollo de inteligencia artificial y especialmente para construir modelos de aprendizaje automatizado bajo su plataforma Google Cloud Platform. Basados en los grandes avances tecnológicos actuales se ha buscado ampliar la capacidad de IA debido al incremento masivo de los datos digitales y la capacidad de computación, para ello se requiere una red mundial de computadores de manera distribuida, conectados de manera remota y en un mismo ecosistema que denominamos nube. Para soportar y procesar dichos volúmenes de información, al estar descentralizada a nivel mundial se originaron las plataformas de nube como Google, que innovan su esquema de sistemas e infraestructura distribuida, presentan algoritmos para Inteligencia Artificial (IA) y aprendizaje automático (AA).
MODULO 1- Introducción a Google Cloud Platform
Se conocerán los avances de la plataforma Google Cloud Platorm, las herramientas de procesamiento para cargas de trabajo de estadísticas, de AA y Evolución de las herramientas de macrodatos.
MODULO 2 – Productos Cloud SQL y Spark ML
Se explicará el modelo propuesto por Google para uso de un modelo existente de Apache Spark ML que se ejecuta de manera local. Componentes de Google Cloud Platform para operar procesos de BigData y ML.
MODULO 2 – Producto BigQuery
Conceptos básicos de BigQuery y del análisis de macrodatos a gran escala. Luego, aprenderá a compilar su propio modelo personalizado de aprendizaje automático usando solamente SQL con BigQuery ML.
Python es un lenguaje de programación creado en 1991 por Guindo Van Rossum (1956, Holanda). Es un lenguaje orientado a objetos, de código abierto y preparado para realizar cualquier tipo de programa, con este lenguaje podemos desarrollar software para aplicaciones: científicas, de comunicaciones de red, de escritorio con interfaz gráfica de usuario (GUI), para crear videojuegos, para smartphones, para inteligencia artificial, para automatización de tareas y por supuesto, para programación web. Es muy útil para trabajar con grandes volúmenes de datos (BigData), ya que nos favorece los procesos de extracción
y procesamiento de estos.
MODULO 1 – Importando Datasets
Conocerá las principales librerías de python para análisis de datos e instrucciones para importar los datos.
MÓDULO 2 – Formateo y Normalización de Datos
Se explicarán funciones para manejo de datos faltantes, conversión de tipos de datos,
normalización del dato con aplicación de funciones estadísticas como min/max, media y
desviación estándar, y agrupación de datos por rangos.
MÓDULO 3 – Exploración de Análisis de Datos / Ejemplos
Se explicarán algunas funciones de Python para manejo de estadística descriptiva y
correlaciones.
Se define la ciencia de datos como «un concepto para unificar estadísticas, análisis de datos, aprendizaje automático, y sus métodos relacionados, a efectos de comprender y analizar los fenómenos reales», se usan técnicas/teorías de muchos campos como: matemáticas, la estadística, la ciencia de la información, y la informática.
La ciencia de datos busca ser un campo interdisciplinario que involucra métodos científicos, procesos y sistemas para extraer conocimiento o un mejor entendimiento de datos en sus diferentes formas, ya sea estructurados o no estructurados, lo cual es una continuación de algunos campos de análisis de datos como la estadística, la minería de datos, el aprendizaje
automático, y la analítica predictiva.
Kaggle es la plataforma de competencia más conocida para el modelado y análisis predictivo. La empresa se fundó en 2010 en Melbourne, Australia, y un año después se trasladó a San Francisco tras recibir financiación de Silicon Valley. En 2017, fue adquirida por Google.
MÓDULO 1: Ciencia de Datos
Introducción general de Ciencia de datos y sus componentes
MÓDULO 2: Introducción a Kagglers
Se explica el origen de la competencia de ciencia de datos Kagglers, los tipos de
competencia y un ejemplo de BigData.
Becaria Programa MINTIC – Inteligencia Artificial 2019 Ingeniera de Sistemas / Gerente De Proyectos TI.
Yudy Maribel Borda, graduada en el 2000 como Ingeniera de Sistemas de la Universidad Católica de Colombia y en 2006 como Especialista en Automatización de Procesos Industriales de la Universidad de los Andes, su trayectoria laboral de más de 20 años inició con el enfoque de desarrollo de aplicaciones, con una herramienta Case denominada GeneXus para aplicaciones de ámbito empresarial en sectores tales como banca, manufactura, seguros y transporte de valores. Posteriormente en el sector de retail y manufactura inició su experiencia en el ecosistema SAP en distintos proyectos enfocados en los módulos SAP de costos, compras, producción, logística, activos fijos, WMS, BW; como profesional en Gerencia de Proyectos. También trabajó como Consultora Senior de SAP Solution Manager (Ciclo ITIL para aplicaciones SAP), ejecutó proyectos de implementación para el soporte y ciclo de mantenimiento de aplicaciones SAP, para empresas del sector de Consultoría SAP, Alimentos y Bebidas e industria Naval Marítima / Fluvial. En los últimos 4 años se desempeñó como Gerente de Proyectos de Tecnología y Coordinadora de Fábrica de Software para una Caja de Compensación Familiar, en la que lideró proyectos de implementación/mantenimiento SAP / Sistemas Legados en los frentes Financiero, Subsidio, Procesos, Riesgos, Planeación, Comercial, Crédito y Seguros.
En el frente de emprendimiento inició su trayectoria con una iniciativa presentada a Fondo Emprender SENA en el año 2015 en conjunto con su hermana Anayiby Borda (Diseñadora Gráfica/Visual Designer) para una nueva marca de prendas de vestir con materiales eco amigables, a pesar de no ser elegidas, el proceso de aprendizaje y construcción de marca les proporcionaron las bases para retomar de nuevo la línea de emprendimiento con un enfoque más cercano al sector Bogotá en 2020, en la actualidad están en proceso de construcción de modelo de negocio con nuevos materiales y procesos textiles.
Actualmente al ser becaria del Programa de MINTIC de Actualización en las nuevas tecnologías de la 4ta Revolución Industrial como es Inteligencia Artificial y cumpliendo los requisitos de la convocatoria por medio de la transferencia de conocimiento a la comunidad y en un futuro incorporar nuevas tendencias tecnológicas a sus proyectos.
Conoce startups y eventos en nuestra red de emprendimiento. En la medida que vamos creciendo con nuestros negocios, se hace necesario establecer una base sólida de networking en donde podamos buscar apoyo y conocimiento en la red de emprendimiento.
Registrar RetoAlguna vez te has preguntado:
¿Por qué pertenecer a una red de emprendimiento?
¿Qué elementos encontramos en la red de emprendimiento?
¿Cómo hacer parte de la red de emprendimiento?
Si quieres conocer las respuestas a estos interrogantes te invitamos a leer acerca de nuestra red de emprendimiento.
Lanza rápidamente tu reto corporativo en nuestra red de más de 25,000 emprendedores en Latam. Además podrás hacer el seguimiento del avance de los proyectos participantes a través de nuestro Project Manager. También tendrás acceso a nuestra Liga de Mentores que trabajarán por hacer realidad los productos de innovación que tu organización necesita.
Te invitamos a conocer nuestra plataforma de Hackathons e innovación corporativa.
Si quieres ser parte de nuestra red de emprendimiento para usar nuestras herramientas y hacer networking, te invitamos a regístrarte ya mismo. Al ingresar podrás empezar a crear tus proyectos con el apoyo de nuestros mentores a través de nuestro nuevo servicio de mentorías. También podrás obtener recursos mediante hackathons y ruedas de negocio, así mismo recibirás contenidos todas las semanas para mantenerte informado.
Fundador de p4s.co Partners for Startups, donde conectamos a emprendedores con el mundo corporativo e inversionistas. Activista digital en Ciencia, Tecnología, Software Libre, Innovación y temas Sociales. Gracias a esta experiencia, he logrado validar la importancia de las comunidades digitales, como pilar estratégico para el mejoramiento de las condiciones del país en materia de progreso económico y desarrollo académico.