Las alucinaciones de la inteligencia artificial

¿Cómo es eso de que las máquinas alucinan? Aquí le explico en un video de menos de diez minutos. Los enlaces en pantalla están dentro del texto más abajo.

Estoy a la orden por si desea una charla o un workshop (presenciales u online) de esta materia o de cualquiera de las que trato en este blog, en mis canales en YouTube o en mi libro de hermenéutica.

 El 15 de mayo de 2023, la BBC en español publicó en su sitio en internet: “Qué es la «alucinación» de la inteligencia artificial y por qué es una de las fallas potencialmente más peligrosas de esta tecnología”

Esas alucinaciones han sido tratadas también por artículos científicos. Pero… ¿Qué es esto de máquinas que alucinan? Veamos de qué se trata.

Esto es Lucas Abrek desde la Colina de Ares.

Las alucinaciones de la inteligencia artificial

En un artículo del New York Times de mayo de 2023, se cuenta que le preguntaron a ChatGPT cuándo fue la primera vez que ese periódico escribió sobre inteligencia artificial. La respuesta fue que el 10 de julio de 1956, en un artículo titulado “las máquinas serán capaces de aprender y de resolver problemas, predicen los científicos” y con ocasión de un congreso en el Dartmouth College. Ese congreso existió, el artículo no, ChatGPT estaba inventando.

“Machines Will Be Capable of Learning, Solving Problems, Scientists Predict”

https://www.nytimes.com/2023/05/01/business/ai-chatbots-hallucination.html

 Esa es la clase de alucinación a que nos referimos. Se trata de salidas computacionales (OUTPUT) erradas por incluir equivocaciones u omisiones de material relevante. Hay autores que hablan de mentiras computaciones para referirse a esas dos categorías de salidas.

“Lying” in computer-generated texts: hallucinations and omissions, de Kees Van Deemter y Ehud Reiter  

Las máquinas no alucinan. Es un término para referirse a las equivocaciones de una clase de inteligencia artificial: la inteligencia artificial generativa como ChatGPT.  Con este tipo de software se crea texto, imágenes fijas o móviles y sonidos. Esa imagen que ven en pantalla fue creada usando inteligencia artificial. La música de fondo la hice con apoyo en inteligencia artificial (la que escuchan ahora, no la del principio).

No lo olviden: la inteligencia artificial es solo software. Uno muy complejo, es cierto, pero software a fin de cuentas. Un reporte sobre inteligencia artificial de 2023 de la Universidad de Stanford  sostiene las sistemas de inteligencia artificial generativa “son propensos a alucinar” (“…they are prone to hallucination”, página 2, en

https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf).

Ya que hemos mencionado el término inteligencia artificial generativa, ubiquemos esta dentro del gran campo de la inteligencia artificial.

La inteligencia artificial podemos dividirla en dos grandes áreas: la robusta y la estrecha.

Dentro de la inteligencia artificial estrecha o débil (ANI por su sigla en inglés), está toda la inteligencia artificial que existe. Tenemos dentro de la ANI la inteligencia artificial generativa y otros tipos como la inteligencia artificial para operaciones de TI (AIOps), o la inteligencia artificial que procesa visión para cámaras de vigilancia y cosas de ese tipo.

Desde luego, hay muchas otras aplicaciones.

Dentro de la inteligencia artificial robusta, la de la ciencia ficción y que no sabremos si va a existir alguna vez, tenemos la superinteligencia (ASI por la sigla en inglés, que es la que nos superaría) y la general (AGI, también por la sigla en inglés), la que, como en las películas, nos respondería acerca de cualquier tema como un poderoso oráculo. Si alguna vez las máquinas llegaran a tener consciencia, sería dentro de la inteligencia artificial robusta. Ninguna de las dos clases, repito, existe.

El cuadro anterior significa que las alucinaciones son un fenómeno de un área de la inteligencia artificial estrecha, en concreto la inteligencia artificial generativa, la más popular, que salió al escenario público, desde noviembre de 2022, gracias a ChatGPT .

Tengamos claro algo: la inteligencia artificial generativa no puede entender el mundo ni producir ideas realmente novedosas, tampoco entender de qué está hablando, como nos recuerda la UNESCO.

(UNESCO, Guidance for generative AI in education and research, 2023, Francia, p. 8, en https://inee.org/sites/default/files/resources/386693eng.pdf)

Pasemos ahora a un evento real que sirve para ilustrar cómo el tema las alucinaciones debe tomarse en serio.

Un hombre fue golpeado por un carrito de comida en un avión, que aterrizó en Nueva York, de la aerolínea colombiana Avianca. Esa persona demandó a Avianca y su abogado, el del presunto afectado, presentó como alegato un escrito creado con inteligencia artificial que contenía precisos precedentes a favor de sus pretensiones. El problema es que varios de esos precedentes invocados nunca existieron, ChatGPT se los inventó. Acabó en sanción contra esos abogados.

La moraleja debe ser evidente: no confíe a ciegas en la inteligencia artificial generativa. Es un riesgo enorme, una lotería posiblemente . Recordemos: es solo software y el software puede producir resultados inesperados.

Uno puede imaginar todo sistema computacional como compuesto de unas entradas (INPUT), una zona de procesamiento, que llamaremos BLACKBOX o sea caja negra, y unas salidas (OUTPUT). El término caja negra es particularmente útil para una idea de lo que sucede allí, pues en inteligencia artificial ni siquiera tenemos comprensión total de lo que sucede en la Blackbox. Para inteligencia artificial generativa se usa lo que se llaman grandes modelos de lenguaje, que involucran millones y millones de variables.

Hay científicos sostienen que las alucinaciones son inevitables.

Como consta en un artículo de Scientifc American, conocemos el modelo de cualquier programa de inteligencia artificial, lo que no sabemos aún es porqué hace determinadas tareas o no las hace del todo o de modo diferente al previsto.

En un artículo de Fortune de 17 de abril de 2023, el CEO de Google reconoció que las alucinaciones se presentan en inteligencia artificial y aún no sabemos porqué.

Es preciso reconocer que la información basura debe afectar la salida de cualquier sistema informático, sea de inteligencia artificial o no. Es el principio GIGO (si basura entra basura sale, Garbage In Garbage Out). Y en sistemas que se alimentan de cualquier cosa de internet, bueno, es posible que se cuele basura.

Todo lo expuesto hasta aquí nos lleva a una pregunta y a una consecuencia. La pregunta es: ¿podemos confiar en la inteligencia artificial? La respuesta es ¡desde luego!, siempre que aprendamos a usarla con criterio. Es una herramienta, y como sucede con cualquier herramienta de software o de otra clase, hay que cuidarse. Cada vez que usted lea, escuche o vea algo como creado con inteligencia artificial, entienda que hablan de “creado con ayuda de computador” porque en rigor haber sido creado con inteligencia artificial no significa mayor cosa porque pudo haber sido inteligencia artificial mal concebida desde el principio, en fin, como sucede con cualquier obra humana. Haga  todas las verificaciones sobre las salidas (OUTPUT) porque el resultado de la máquina puede tener una gran incidencia en lo que usted quiere o en lo que la sociedad espera de una inteligencia artificial en operación. Ese es uno de los motivos que alentaron a varios expertos a lanzar advertencias contra el uso de la inteligencia artificial.

es decir, son alertas entre otros aspectos posibles contra el mal uso, bien por ignorancia o bien por maldad reconocible en canalladas como el deepfake.

No sea entonces usted parte del problema.

Terminemos esta exposición con la consecuencia. Otras preguntas y consecuencias quedan de su cargo. Que la inteligencia artificial requiera tanto cuidado en su uso es una excelente oportunidad para aprender a enfocarnos en las preguntas correctas y en el para qué quiero la herramienta de inteligencia artificial concreta que yo pretendo utilizar. ¿Va a usar inteligencia artificial en su negocio? Determine muy bien cómo es su negocio y su entorno legal, social y económico antes, o puede meterse en problemas legales, sociales o económicos. No es solo que la inteligencia artificial tenga límites operativos, sino también los tiene legales (no se aproveche de datos ajenos privados como la imagen o la voz de otra persona sin autorización, por ejemplo), sociales (no se convierta en un Gran Hermano, como el del libro 1984 de George Orwell) o económicos (no se meta en una inversión que luego lo arruine; todos queremos ser digitales, sin embargo, primero tenemos que ser cerebrales). Lo mismo aplica desde luego en otros campos como el de la educación, el ejercicio del derecho, o el que sea.

Seamos pues usuarios apropiados de la inteligencia artificial.


Info complementaria:

Esta entrada ha sido publicada en Aspectos humanos, Ciencias computacionales, Comunicación, Economí­a, Educación, eGoverment, Gestión del Conocimiento, Habeas data, Hermenéutica, Industria del software, Innovación, Inteligencia Artificial IA, internet, Privacidad, Redes, Sector comunicaciones, Sector TIC, Seguridad, Sociedad de la información, Teoría del conocimiento y etiquetada como , , . Guarda el enlace permanente.