Conceptos como inteligencia artificial, machine learning o deep learning han pasado a formar parte de nuestro vocabulario habitual. Sin embargo, todavía son muchos los que no tienen claras las diferencias entre estos términos, fundamentales para entender los retos de la transformación tecnológica que está llamada a marcar el paso del futuro social y empresarial.
Si te suenan, pero no tienes claro qué significan, para qué sirven o en qué se diferencian, resolvemos tus dudas a continuación.
¿Qué es la inteligencia artificial?
La inteligencia artificial (IA) es un área de la computación que se fundó como disciplina en 1956 en la Universidad de Dartmouth. Su objetivo no es otro que crear máquinas inteligentes que se comporten y reaccionen igual que lo haría un ser humano. Es decir, con capacidad para razonar, expresarse o resolver problemas. Un claro ejemplo lo tenemos en los asistentes virtuales, cada vez, más perfeccionados.
Aunque parece un concepto nuevo más vinculado con la ciencia ficción que con nuestro día a día, esta percepción es totalmente errónea. Ya está presente en gran parte de los ámbitos de nuestra vida, pero sus posibilidades son infinitas y, muchas, todavía están por descubrir.
Gracias a la inteligencia artificial recibimos hoy en día resultados sugeridos en motores de búsqueda, trabajamos con analítica predictiva en robots industriales o disfrutamos de recomendaciones personalizadas, que se ajustan a nuestros patrones de comportamiento, en temas tan dispares como películas, viajes, restaurantes, productos financieros, salud o trabajo.
A nivel empresarial, la implementación de aplicaciones de IA conlleva numerosos beneficios en cuanto a eficiencia, mejora de la experiencia del cliente o reducción de tareas repetitivas. Sin embargo, también expone a las compañías a un mayor riesgo de vulnerabilidad ante ciberataques maliciosos o fallos técnicos, según revela el último informe de Allianz Global Corporate&Specialty “El auge de la inteligencia artificial: perspectivas de futuro y nuevos riesgos”, que señala cinco áreas cruciales para identificar las amenazas: accesibilidad del software, seguridad, responsabilidad, obligación y ética.
Prácticamente todos los sectores están trabajando ya con tecnologías de inteligencia artificial, ya sea en medicina para la detección de enfermedades, en banca para el asesoramiento financiero, en automoción para desarrollar coches autónomos o en la industria para supervisar u operar maquinaria.
Según la última guía semestral de la consultora IDC de datos en sistemas de inteligencia artificial cognitiva a nivel mundial, el retail encabeza la lista de sectores que más gasto realizan en la actualidad en sistemas de inteligencia artificial. Lo hace en agentes de servicio al cliente automatizados, asesores de compras y recomendaciones de productos y en promoción para operaciones omnicanal. Le sigue la banca, que invierte en sistemas automatizados inteligentes y de prevención frente a amenazas, análisis de fraudes y programas de asesoramiento y recomendación. El tercer y cuarto lugar lo ocupan, respectivamente, la industria y la sanidad. En el caso de la primera, para el mantenimiento preventivo automatizado y sistemas de análisis de gestión de la calidad y recomendaciones y, en el caso de la segunda, en sistemas de diagnóstico y tratamiento.
La inteligencia artificial se puede dividir en IA robusta o strong AI –las máquinas tienen una capacidad coginitiva similar al del ser humano- y en inteligencia artificial aplicada o weak AI –el aprendizaje de las máquinas es guiado mediante algoritmos-. Es precisamente en este último caso en el que se engloban el aprendizaje automático y el deep learning.
¿Qué es el aprendizaje automático o machine learning?
Es una rama de la inteligencia artificial que se centra en el desarrollo de técnicas que permiten a las máquinas aprender por sí mismas, a partir de los datos que se le suministran.
Aunque es un término que ya se utilizaba en la década de los 50, en los últimos años, ha ido ganando peso e importancia, gracias al aumento del volumen de datos que manejan las empresas y a la relevancia que ha cobrado el big data.
Su aplicación al ámbito empresarial es extremadamente útil para predecir el comportamiento de los distintos públicos o clientes, aumentar el porcentaje de acierto en la toma de decisiones y mejorar las estrategias de captación o fidelización. Permite acciones tan diversas como identificar la fuga de clientes hacia la competencia, anticiparse a la demanda de un producto o identificar patrones de fraude en un negocio.
En función del tipo de aprendizaje que realizan las máquinas, se pueden establecer tres tipos de aprendizaje automático:
- Supervised learning o aprendizaje supervisado: las máquinas realizan el aprendizaje a través de ejemplos y de datos previamente etiquetados por el ser humano. Con este tipo de aprendizaje las máquinas generalizan y clasifican la información para tomar después decisiones sin necesidad de la intervención humana. Es el caso de las tecnologías de reconocimiento de escritura o de detección de spam de los gestores de correo electrónico.
- Unsupervised learning o aprendizaje no supervisado: la máquina extrae conclusiones de los datos no estructurados previamente, estableciendo diferencias o similitudes y utilizando esta información para agruparlos por categorías. Está orientado a la búsqueda de patrones de comportamiento como sería el caso de los datos científicos.
- Reinforcement learning: el aprendizaje se basa en un sistema de prueba-error, en el que se van mejorando los resultados a base de un proceso de repetición. Muchas empresas han comenzado a incorporar esta tecnología a sus procesos operativos con el objetivo de automatizarlos.
¿Qué es el deep learning o aprendizaje profundo?
Es un subconjunto del machine learning en el que la máquina aprende tras un proceso didáctico que combina aprendizaje supervisado y aprendizaje no supervisado. Su principal característica es que el procesamiento de la información imita el de las redes neuronales del cerebro humano, donde una señal de entrada es procesada y tramitada por cientos de neuronas entrelazadas entre capas para extraer una conclusión.
El científico Paul Werbos fue el primero en utilizar este término en 1974 en su tesis doctoral, pero no será popularmente conocido hasta 1980 cuando el algoritmo fue redescubierto por Geoffrey e. Hilton, licenciado de la Universidad de Psicología Experimental de Cambridge y doctorado en Ciencias Computaciones, que se dedicó a implementar el modelo de aprendizaje humano a una máquina.
Se utiliza fundamentalmente para la automatización de análisis predictivos y es la tecnología que hay detrás de traductores inteligentes como Google Translate, de sistemas de reconocimiento de voz, de caras o visión artificial.
En definitiva, la inteligencia artificial ha llegado a nuestras vidas para transformarlas por completo, y las empresas son muy conscientes de sus posibilidades. No hay nada más que ver el aumento progresivo en el gasto de este tipo de sistemas, una cifra que alcanzará lo 52.200 millones de dólares en 2021, según las últimas estimaciones realizadas por la consultora IDC.