En los últimos meses se ha hablado más que nunca de la IA generativa. Las últimas noticias sobre modelos de inteligencia artificial como ChatGPT, Stable Diffusión o Midjourney la han puesto de moda por las grandes y sorprendentes posibilidades que ofrece, sobre todo, para un futuro que se vislumbra cada vez más cercano.
Gartner la sitúa como una de las técnicas que más impacto está causando en el mercado de la IA. De hecho, la considera estratégica para los próximos años y estima que, tan solo en dos, este tipo de IA representará el 10% de todos los datos producidos, frente al 1% actual. Y es más, apunta que las empresas que adopten esta práctica triplicarán el valor de aquellas que no codifiquen su enfoque de la IA.
Hoy en día y gracias a la inteligencia artificial y a modelos de aprendizaje automático (machine learning) o profundo (deep learning) ya es posible interpretar y clasificar datos que permiten desde el reconocimiento facial hasta la prevención o identificación de ciberdelitos. Pero la IA generativa abre una nueva posibilidad: la creación desde cero. Es decir, da un paso más en su evolución para ir de la percepción e identificación hacia la creatividad. Algo impensable hasta hace muy poco.
Sin embargo, el concepto de IA generativa no es nuevo, pero el progreso de las técnicas de aprendizaje automático que la sustentan ha avanzado notablemente en la última década.
¿En qué consiste?
La IA generativa recoge información de un conjunto de datos masivos (libros, sitios webs…), que sirven de base para crear contenido original, ya sea texto, archivos de audio, imágenes, obras de arte, objetos físicos… sin intervención humana, pero que se asemeja casi hasta rozar la perfección, y gracias al algoritmo de la Red Generativa Antagónica (RGA). La gran innovación de este modelo es el aprendizaje mediante el entrenamiento, que permite mejorar y generar resultados de mayor calidad y de mayor personalización.
La IA generativa va más allá del procesamiento del lenguaje natural, como la traducción, el resumen o la producción de textos. Sus posibilidades de aplicación son ilimitadas. Desde la creación de código de software, novelas o ensayos universitarios, pasando por atención al cliente o la investigación de medicamentos, hasta la invención de anuncios personalizados o música original. De hecho, sus utilidades en sectores como el sanitario, por ejemplo, para la detección de enfermedades, el ambiental, para la prevención de la extinción de especies o en el de la seguridad, para el reconocimiento de delincuentes, entre otros muchos, son indiscutibles. Sin embargo, su capacidad transformadora, también en ciencias complejas, presenta riesgos aún por acotar y que invitan a la reflexión.
Peligros de los modelos de IA generativa
Por un lado, preocupa las facilidades que ofrece este tipo de modelos para generar contenidos falsos y engañosos que buscan la desinformación, por ejemplo, a través de trolls automatizados. También para llevar a cabo fraudes o identidades falsas. Casos como el del modelo de lenguaje de IA de Meta, Galactica, destinado a la creación de documentos científicos, y que tuvo que ser retirado días después de su lanzamiento por producir contenido erróneo al malinterpretar los datos de los millones de artículos con los que se la había entrenado, ponen en duda además su competencia para procesar datos complejos sin moderación humana.
Otro de los riesgos más cuestionados se refiere a las implicaciones que tiene sobre los derechos de autor y la propiedad intelectual. Fundamentalmente, por el uso que hacen estos modelos de las diferentes fuentes de información de las que beben en sus entrenamientos sin consentimiento. Y a todos estos elementos hay que sumar el impacto que estos modelos de IA podrían tener sobre un número indeterminado de profesiones creativas (diseño, publicidad, entretenimiento, edición…), que unos ven como una nueva forma de cooperación humano-maquina que remará a favor de la creatividad y otros, como el fin de numerosos empleos.
Dos enfoques de gobernanza IA
Con estos planteamientos como telón de fondo, se han asentado dos modelos de gobernanza IA. El de aquellas empresas como OpenAI que apuestan por estrategias de publicación limitadas, con un uso supervisado y acceso controlado, a otras como Stability que creen en la democratización y en modelos de libre acceso.
Queda patente así la necesidad imperante de una regulación que establezca límites que permitan una expansión controlada y beneficiosa de esta tecnología que promete grandes avances.