El aprendizaje automático es un término tecnológico típico que escuchamos en todas partes. Una de las tendencias más notables en la tecnología actual, los algoritmos de aprendizaje automático, basados en modelos matemáticos, permiten que los sistemas informáticos reconozcan y aprendan directamente de patrones en los datos y realicen tareas complejas de manera inteligente, en lugar de seguir reglas preprogramadas o usar instrucciones explícitas.
Al aplicar técnicas de aprendizaje automático, las empresas obtienen importantes ventajas financieras y competitivas al brindar mejores experiencias a los clientes y reaccionar más rápidamente a los cambios del mercado. El aprendizaje automático se usa ampliamente hoy en día en la búsqueda web, los filtros de correo no deseado, los sistemas de recomendación, la colocación de anuncios, la calificación crediticia, la detección de fraudes, el comercio de acciones, el diseño de medicamentos y muchas otras aplicaciones.
Ventajas del aprendizaje automático
Hay muchos beneficios que las empresas obtienen del aprendizaje automático.
- Descubra rápidamente tendencias específicas, patrones y relaciones implícitas en conjuntos de datos vastos y complejos
- Tiene la capacidad de aprender y hacer predicciones sin intervención humana.
- Mejora continua en precisión, eficiencia y velocidad.
- Bueno en el manejo de problemas multidimensionales y datos multivariados
- Ayude a las empresas a tomar decisiones más inteligentes y rápidas en tiempo real
- Eliminar el sesgo de la toma de decisiones humana
- Automatice y optimice los procesos comerciales predecibles y repetitivos
- Mejor uso de los datos, tanto estructurados como no estructurados.
Ahora, hagamos un viaje rápido por el origen y la breve historia del aprendizaje automático y sus hitos más importantes.
Siglo XVIII – Desarrollo de métodos estadísticos: Varios conceptos vitales en el aprendizaje automático se derivan de la teoría de la probabilidad y las estadísticas, y se remontan al siglo XVIII. En 1763, el estadístico inglés Thomas Bayes estableció un teorema matemático para la probabilidad, que se conoció como Teorema de Bayes y sigue siendo un concepto central en algunos enfoques modernos del aprendizaje automático.
1950 — La prueba de Turing: Los artículos del matemático inglés Alan Turing en la década de 1940 estaban llenos de ideas sobre la inteligencia artificial. “¿Pueden pensar las máquinas?” Preguntó. En 1950, sugirió una prueba para la inteligencia de las máquinas, más tarde conocida como la Prueba de Turing, en la que una máquina se llama «inteligente» si sus respuestas a las preguntas pueden convencer a un humano.
1952 — Juego de Damas: En 1952, el investigador Arthur Samuel creó una máquina de aprendizaje temprano, capaz de aprender a jugar a las damas. Usó guías anotadas por expertos humanos y jugó contra sí mismo para aprender a distinguir los movimientos correctos de los malos.
1956 – El taller de Dartmouth: El término «inteligencia artificial» nació durante el Taller de Dartmouth en 1956, que se considera ampliamente como el evento fundacional de la inteligencia artificial como campo. El taller duró de seis a ocho semanas y asistieron matemáticos y científicos, incluido el informático John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon.
1957 – El perceptrón: El perceptrón del célebre psicólogo estadounidense Frank Rosenblatt fue uno de los primeros intentos de crear una red neuronal con el uso de una resistencia rotatoria (potenciómetro) impulsada por un motor eléctrico. La máquina podría tomar una entrada (como píxeles de imágenes) y crear una salida (como etiquetas).
1967 — Algoritmo del vecino más cercano: La regla del vecino más cercano (NN) es un clásico en el reconocimiento de patrones, que apareció en varios trabajos de investigación en la década de 1960, especialmente en un artículo escrito por T. Cover y P. Hart en 1967. El algoritmo trazó una ruta para los vendedores ambulantes, comenzando en una ciudad aleatoria pero asegurándose de visitar todas las ciudades durante un recorrido corto.
1973 — El informe Lighthill y el invierno de la IA: El Consejo de Investigación Científica del Reino Unido publicó el informe Lighthill de James Lighthill en 1973, presentando un pronóstico muy pesimista en el desarrollo de aspectos centrales en la investigación de IA. Afirmó que «en ninguna parte del campo los descubrimientos realizados hasta ahora produjeron el gran impacto que se prometió en ese momento». Como resultado, el gobierno británico recortó los fondos para la investigación de IA en todas las universidades excepto en dos. Este período de financiación e interés reducidos se conoce como invierno AI.
1979 – Carro de Stanford: Los estudiantes de la Universidad de Stanford inventaron un robot llamado Cart, conectado por radio a una gran computadora central, que puede sortear obstáculos en una habitación por sí solo. Aunque cruzar toda la habitación tomó cinco horas debido a errores y mapas apenas adecuados, la invención era lo último en tecnología en ese momento.
1981 — Aprendizaje basado en explicaciones (EBL): Gerald Dejong introdujo el concepto de aprendizaje basado en explicaciones (EBL), que analiza datos y crea una regla general que puede seguir descartando datos sin importancia.
1985 – Charla en red: El profesor de Francis Crick, Terry Sejnowski, inventó NetTalk, NETtalk, un programa que aprende a pronunciar un texto escrito en inglés mostrándole el texto como entrada y haciendo coincidir las transcripciones fonéticas para comparar. La intención era construir modelos simplificados que pudieran arrojar luz sobre el aprendizaje humano.
1986 — Procesamiento distribuido en paralelo y modelos de redes neuronales: David Rumelhart y James McClelland publicaron Parallel Distributed Processing, que avanzó en el uso de modelos de redes neuronales para el aprendizaje automático.
1992 — Jugando backgammon: El investigador Gerald Tesauro creó un programa basado en una red neuronal artificial, que era capaz de jugar al backgammon con habilidades que igualaban a los mejores jugadores humanos.
1997 – Azul profundo: Deep Blue de IBM se convirtió en el primer sistema informático de juego de ajedrez en vencer a un actual campeón mundial de ajedrez. Deep Blue usó el poder de la computación en la década de 1990 para realizar búsquedas a gran escala de movimientos potenciales y seleccionar el mejor movimiento.
2006 — Aprendizaje profundo: Geoffrey Hinton creó el término «aprendizaje profundo» para explicar los nuevos algoritmos que ayudan a las computadoras a distinguir objetos y texto en imágenes y videos.
2010 – Kinect: Microsoft desarrolló el dispositivo de entrada de detección de movimiento llamado Kinect que puede rastrear 20 características humanas a una velocidad de 30 veces por segundo. Permitió a las personas interactuar con la computadora a través de movimientos y gestos.
2011 — Watson y Google Brain: Watson de IBM ganó un juego del concurso estadounidense Jeopardy contra dos de sus campeones. En el mismo año, Google Brain desarrolló su red neuronal profunda que podía descubrir y categorizar objetos de la forma en que lo hace un gato.
2012 — Clasificación de ImageNet y visión artificial: El año vio la publicación de un influyente artículo de investigación de Alex Krizhevsky, Geoffrey Hinton e Ilya Sutskever, que describe un modelo que puede reducir drásticamente la tasa de error en los sistemas de reconocimiento de imágenes. Mientras tanto, X Lab de Google desarrolló un algoritmo de aprendizaje automático capaz de navegar de forma autónoma en videos de YouTube para identificar los videos que contienen gatos.
2014 – Cara profunda: Facebook desarrolló un algoritmo de software DeepFace, que puede reconocer y verificar personas en fotos con una precisión humana.
2015 — Aprendizaje automático de Amazon: Andy Jassy de AWS lanzó sus servicios administrados de Machine Learning que analizan los datos históricos de los usuarios para buscar patrones e implementar modelos predictivos. En el mismo año, Microsoft creó el kit de herramientas de aprendizaje automático distribuido, que permite la distribución eficiente de problemas de aprendizaje automático en varias computadoras.
2016 – AlphaGo: AlphaGo, creado por investigadores de Google DeepMind para jugar el antiguo juego chino de Go, ganó cuatro de cinco partidos contra Lee Sedol, quien ha sido el mejor jugador de Go del mundo durante más de una década.
2017 — Libratus y Deepstack: Investigadores de la Universidad Carnegie Mellon crearon un sistema llamado Libratus, y derrotó a cuatro de los mejores jugadores en No Limit Texas Hold ‘em, después de 20 días de juego en 2017. Investigadores de la Universidad de Alberta también reportaron un éxito similar con su sistema, Deepstack.