La inteligencia artificial en contexto

Video de esta entrada

Se advirtió en una charla TED respecto de las conferencias sobre internet algo que hoy, diez años después de la charla aludida, aplica a las charlas sobre inteligencia artificial:

“Si oyen a un experto hablar sobre internet y afirma que la red hace tal cosa o que hará tal otra deberían tomarse su opinión con el mismo escepticismo con el que tratarían los comentarios de un economista sobre la economía o de un hombre del tiempo sobre el tiempo.”

(Danny Hillis. Citado en: Carmine Gallo. Hable como en TED es el libro de referencia para aprender a expresarse en público como lo hacen los oradores profesionales, Penguin Random House Grupo Editorial España,2016,  página 197)

En un video previo me ocupé de un problema en particular de la GenAI, las alucinaciones; es necesario ahora echar un vistazo más general a la inteligencia artificial. Si no ha visto ese video, hágalo ahora por favor, así será más productivo este. Este es un video más amplio sobre IA.

La inteligencia artificial en contexto.

1       La IA es solo software

La IA es software. Es un producto humano como cualquier otro y sujeto a las consecuencias de tal origen: puede estar mal concebido, no ser apropiado para los fines que usted quiere, tener defectos no previstos en la operación, en fin. No es un oráculo infalible ni menos una solución mágica. Decir que algo se hizo con IA no significa nada. Un congreso sobre IA tampoco significa mayor cosa.

2       Casi siempre que se habla de IA en realidad se habla de GenAI

Si usted piensa en IA, es probable que lo esté haciendo en inteligencia artificial generativa, la rama popular.

3       La IA no es nueva

Abandonemos primero la idea de novedad para aterrizar en lo que ocurre: la popularidad. La inteligencia artificial tiene una larga historia que parte a mediados del siglo XX, de modo que no es novedosa por sí misma. Lo que ha sucedido es que una variedad de inteligencia artificial, la generativa o GenAI, se hizo popular desde finales de 2022 gracias a ChatGPT.

4       ¿Es correcto hablar de IA?

Yo sostengo que no. Ya planteé el punto en un artículo que publiqué como estudiante de la facultad de derecho hace muchos años, tal como cuento en mi video sobre responsabilidad civil por uso de IA en radiología diagnóstica, al cual remito. Como el término está tan extendido, no tengo opción que mantener la terminología so pena de no ser entendido.

5       La IA no es inteligente

La IA es software. Solo es inteligente en el mismo sentido que cualquier otra máquina puede serlo, o sea solo aparentemente. Ahora, si de coeficiente intelectual se trata, ya un estudio afirma que los chatbots son más bien poco inteligentes (GAIA: a benchmark for General AI Assistants. Grégoire Mialon et al. https://arxiv.org/abs/2311.12983).

6       Algunos términos

6.1      Alucinaciones de la IA

Mentiras de la IA generativa de texto que aún no sabemos cómo evitar que ocurran. No lo olviden: las máquinas no saben qué es verdad, tampoco qué es real y qué no.

(“Lying” in computer-generated texts: hallucinations and omissions, de Kees Van Deemter y Ehud Reiter, https://blog.oup.com/2023/06/lying-in-computer-generated-texts-hallucinations-and-omissions/)

6.2      Chatbot

“Programa que utiliza inteligencia artificial (IA) y procesamiento del lenguaje natural (NLP) para contestar preguntas o entender requerimientos (prompts).”

(IBM.COM, en https://www.ibm.com/es-es/topics/chatbots)

Por tanto, las aplicaciones como ChatGPT son chatbots.

6.3      Inteligencia artificial

“aprovecha computadoras y máquinas para imitar las capacidades de resolución de problemas y toma de decisiones de la mente humana.”

(IBM.COM, en https://www.ibm.com/mx-es/topics/artificial-intelligence)

El término es introducido por John McCarthy en el Darmouth College en 1956.

(misma fuente)

6.4      Inteligencia Artificial Generativa (GenAI)

Aplicativos de inteligencia artificial que generan contenido de modo autónomo

6.5      Inteligencia artificial estrecha (ANI)

Es la única que existe. Comprende muchas clases de IA en uso, incluyendo la inteligencia artificial generativa (GenAI) como ChatGPT.

6.6      Inteligencia artificial robusta

Es la inteligencia artificial como la de las películas. No existe actualmente ni sabemos si existirá. Yo personalmente no creo que llegue a existir. Hay dos clases: la general (IAG) que es similar a la inteligencia humana y tendría consciencia, y la superinteligencia artificial (SIA) que nos superaría.

6.7      LLM

Los LLM en IA son los grandes modelos de lenguaje (Large Language Model) que, con base en la teoría de redes neuronales, realizan aprendizaje con base en vastas cantidades de texto. ChatGPT es un LLM.

“A finales de 2021, la Univerdad de Standford publicó un informe donde se acuñó por primera vez el término Modelo Fundacional NLP, también conocido como Large Language Model (LLM), Massive Language Model (MLM), Transformer Language Model.”

(https://www.ibm.com/blogs/think/es-es/2023/03/01/modelos-fundacionales-nlp-y-su-aplicacion-en-asistentes-virtuales-como-chatgpt/)

 

6.8      Prompt

“Un prompt es una frase o conjunto de frases que se utilizan para indicarle a la inteligencia artificial lo que queremos que genere.”

(20Minutos.es, en https://www.20minutos.es/tecnologia/inteligencia-artificial/diccionario-facil-inteligencia-artificial-5122486/)

6.9      Redes neuronales

“…son modelos matemáticos inspirados en el funcionamiento del cerebro humano, que se utilizan en la inteligencia artificial para resolver problemas de aprendizaje automático. Son capaces de aprender patrones y relaciones complejas a partir de grandes cantidades de datos, y se utilizan en una amplia variedad de aplicaciones de aprendizaje automático, como la clasificación de imágenes, el reconocimiento de voz y la traducción automática.” (20Minutos.es, en

https://www.20minutos.es/tecnologia/inteligencia-artificial/diccionario-facil-inteligencia-artificial-5122486/)

7       Los chatbots como estrellas de la IA generativa

ChatGPT se llama así por conversación (chat) y GPT (Generative pre-trained Transformer, transformer generativo preentrenado). Transformer es un término para un estado de desarrollo relativamente reciente de redes neuronales.

El año de los chatbots es 2016 porque ese año salen al mercado programas como Alexa o Siri (Robert Dale, The return of the chatbots, en https://www.cambridge.org/core/journals/natural-language-engineering/article/return-of-the-chatbots/0ACB73CB66134BFCA8C1D55D20BE6392#)

En noviembre de 2022 ChatGPT inicia la etapa más popular de la IA.

8       El primer chatbot y el efecto Eliza

8.1      Eliza

Eliza era un programa que simulaba un psicoterapeuta rogeriano. Fue escrito y echado a andar en el MIT por Joseph Weizenbaum, en 1966. Un psicoterapeuta rogeriano basa su metodología en preguntas que repiten lo dicho por el paciente, con la idea de llevarlo a descubrir cosas relevantes de las que aún no es consciente pero ya sabe. No era un programa muy sofisticado, pero tuvo un impacto monumental.

Con Eliza sucedió que algunas personas comenzaron a portarse como si estuvieran interactuando con un humano. Es el efecto Eliza.

8.2      Qué pensaba Weisembaum de la IA

Weizembaum, el programador de Eliza, el primer chatbot de la historia, creía que la inteligencia artificial era un índice para la locura de nuestro mundo (“…he came to believe, was an “index of the insanity of our world.””, The Guardian, “Weizenbaum’s nightmares: how the inventor of the first chatbot turned against AI”, en https://www.theguardian.com/technology/2023/jul/25/joseph-weizenbaum-inventor-eliza-chatbot-turned-against-artificial-intelligence-ai)

9       Cuando un sistema de IA ganó a expertos humanos

Esto fue mucho antes de que el gran ajedrecista Kasparov perdiera con Deep Blue (por cierto, pueden leer la experiencia según el propio jugador en su libro “Cómo la vida imita al ajedrez”). Fue en 1986 cuando el sistema experto en geología Prospector, o sea un sistema de inteligencia artificial creado con el apoyo en el conocimiento de expertos del área y usado por profesionales de la misma, halló un

“…depósito de molibdeno existente cerca de Mount Tolman en Washington (Winston, 1984). En este caso, expertos humanos estaban en desacuerdo con los hallazgos de PROSPECTOR. y solamente las perforaciones probaron que el sistema tenía razón.»

(HARTNELL, Tim. Sistemas Expertos Introducción al diseño y aplicaciones, Anaya, Madrid,1986, página 26)

10    La prueba de Turing

Desde 1950 Alan Turing había propuesto que una máquina debía tenerse como inteligente si al interactuar con ella un humano no se percataba de que no interactuaba con una máquina. Desde 1990 existe el premio Loebner para quien logre premiar un chatbot que logre eso de verdad, o sea que un programa logre interactuar con seres humanos y que estos crean que es otro humano (hay varios jueces que deben ser engañados, https://www.gtd.es/es/blog/el-test-de-turing-en-su-maxima-competicion-loebner-prize).

11    Mitos urbanos siglo XXI: los bots que habrían apagado por comunicarse en un lenguaje fuera del alcance humano

Nuestra imaginación se deja volar cuando se habla de inteligencia artificial. Hace relativamente poco, corrió la noticia de que Facebook estaba experimentando con dos chatbots que conversaban entre sí y que empezaron a comunicarse en un nuevo lenguaje que los humanos no podían entender, lo que había obligado a apagarlos.

Lo ocurrido no fue eso. El grupo de investigación en inteligencia artificial de Facebook (FAIR, por su sigla en inglés) puso a conversar dos chatbots, llamados Alice y Bob, con el fin de hacer ejercicios de negociación. Pero nadie había declarado como regla de los programas que usaran inglés estándar, de modo que pronto los chatbots empezaron a crear su propia jerga, como sucede con cualquier grupo humano que se comunica el suficiente tiempo. Por ejemplo, si algo era nombrado cinco veces, significaba que se querían cinco copias de un item. Debido a esto, los chatbots se apagaron con el fin de afinar el inglés usado. Eso fue todo, nos cuentan en un artículo de Fast Company de 2017, en el cual además nos señalan que el invento de una jerga por inteligencia artificial que conversa con otros aplicativos no es nada nuevo. Es un poco lo que ocurre con humanos que con el tiempo empiezan a usar sus propios códigos de comunicación. Eso puede ser un problema para interacción conversacional con cualquiera que no los maneje. Ver https://www.fastcompany.com/90132632/ai-is-inventing-its-own-perfect-languages-should-we-let-it

12    Distingamos entre usar IA y escribir IA

Es la diferencia entre aprender a usar un auto (o una herramienta compleja que requiere cuidado) y crear un auto (diseñarlo). Eso significa que con frecuencia quien habla de aprender IA en realidad habla de aprender a usar una herramienta o, sencillamente, de aprender a interactuar con ella mediante consultas (prompts) lo que en realidad no es mayor cosa.

13    Usar la IA supone pensar en muchos aspectos, como los legales

Con la IA existe la misma exigencia que con todo contenido en internet o fuera de este: hay que respetar la propiedad intelectual, los datos personales y la privacidad e intimidad ajenos. Usted no puede simplemente usarlos sin autorización, se trate de personas conocidas o no. Son derechos fundamentales en juego. Por ejemplo, no puede tomar la voz de alguien más y simularla, o tomar la imagen de alguien y crear un video o una foto con ello sin haber obtenido del titular de los mismos y sin coacción los permisos necesarios.

Getty Images, entre otros servicios de stock de imágenes, ha demandado a un proveedor de imágenes que usó el stock de Getty para entrenar el servicio de IA de imágenes de este último y sin pedir permiso alguno (https://apnews.com/article/getty-images-artificial-intelligence-ai-image-generator-stable-diffusion-a98eeaaeb2bf13c5e8874ceb6a8ce196).

14    Aspectos sobre los cuales tener cuidado en uso IA

Hace tiempo que sabemos que la IA debe usarse con cuidado. Y no solo por los GPS que nos pueden llevar a sin salidas o a sitios muy peligrosos.

En 2021, Alexa de Amazon le pidió a una niña que metiera una moneda en un enchufe (https://www.bbc.com/mundo/noticias-59805985). Algo pasó con la black box de este sistema, que por cierto siempre va a estar escuchando lo que se dice a su alrededor (como los celulares, si usted se descuida). Eso significa que Alexa colecta mucha información privada atractiva para hackers o para entrometidos, sin mencionar que Alexa, como ocurre con nuestros computadores y celulares, puede instalar aplicaciones sin autorización, o delincuentes pueden simular aplicaciones legítimas para robar información (https://news.rub.de/english/press-releases/2021-02-24-it-security-privacy-issues-and-security-risks-alexa-skills). Desde luego, ya Amazon anuncia haber resuelto todo.

Por cierto, hay un reporte de Alexa diciendo que cuando cerraba los ojos veía gente muriendo (https://metro.co.uk/2018/06/20/amazon-alexa-horrifies-owner-declaring-every-time-close-eyes-i-see-people-dying-7644624/. Eso parece posible porque suena sospechosamente a cierta película, no porque viera muertos (las máquinas no ven nada).

La inteligencia artificial, como es software, puede tener fallas de seguridad en su algorítmica, además de huecos en su programación. Hay un documento que contiene 10 riesgos mayores de seguridad en aprendizaje de máquinas. Es del Open Worldwide Application Security Project (OWASP) (https://owasp.org/about/)

“OWASP Machine Learning Security Top Ten” en https://owasp.org/www-project-machine-learning-security-top-10/.

En realidad hay más problemas, como los sesgos raciales o de género, materia de la cual se ha ocupado mucho la prensa.

15    La carta abierta donde se pidió la moratoria en el desarrollo de la IA generativa

La carta se publicó el 22 de marzo de 2023 y pidió una pausa de 6 meses en el entrenamiento de sistemas de IA más poderosos que ChatGPT 4. Si los actores clave no lo hacían, se sugería que los gobiernos la ordenaran. En las FAQs se indica que una moratoria análoga se había hecho en las investigaciones con DNA. Se expresa el temor por una llegada de una inteligencia artificial general, que aunque aún inexistente no podía descartars, en todo caso, debe existir seguridad de que no habrá efectos adversos.

Este no es el único documento sobre riesgos de la IA. Otro centro de investigación en IA también ha lanzado alertas incluso catastróficas (ver en https://www.safe.ai/ai-risk)

16    El riesgo mental

16.1   Sustituir amistades humanas por IA

Hay riesgos serios en IA que no tienen que ser de apocalipsis global o asunto parecido. Hablemos de riesgos tangibles como el mental por tratar máquinas como si fueran humanas, o sea llevar más allá el efecto Eliza al extremo de incurrir en una patología. Remito a literatura especializada, como el artículo “To chat or bot to chat: Ethical issues with using chatbots in mental health” en https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10291862/.

16.2   Hablar con muertos

No, no es hablar con espíritus. Es replicar personas que ya murieron para hablar con ellas. La BBC, en un artículo de noviembre de 2023, habló de ello usando el término “nigromancia digital”.

17    En resumen

No se trata de abandonar la IA, sino:

  1. Distinguir la GenAI de las otras clases de IA.
  2. No esr ingenuos a la hora ante quienes habla de IA.
  3. Recordar quiénes son los que deben ser inteligentes y aprender a usar la herramienta teniendo claro el entorno de la IA, absteniéndonos incluso de utilizarla si ello es lo pertinente.
  4. Piénselo bien: si no tiene que usar IA, no lo haga. Dependiendo de su necesidad, pueden existir otras opciones de software.

18    Una advertencia del dr. Weizenbaum

El doctor Weizenbaum, el creador de Eliza, advirtió específicamente contra el riesgo de confiarnos en la tecnología más allá de la cuenta o por fuera de una perspectiva razonable. Weizenbaum lanzó esta declaración lapidaria:

“Recuerdo la afirmación de una persona del ámbito de la inteligencia artificial que ha dicho que la invención del ordenador, o la entrada del ordenador a la sociedad, es el hecho más importante de la historia humana desde el nacimiento de Jesucristo. Esto son tonterías. Es un terrible perjuicio señalar algo como la solución a todos nuestros problemas en algún terreno, porque nos alienta a no mirar a ninguna otra parte. Creo que esto es ridículo y peligroso.”

(https://telos.fundaciontelefonica.com/archivo/numero038/entrevista-a-joseph-weizenbaum)

Eso es cierto. No para dejar la herramienta, sino para tomarla en su contexto y aprovecharla del modo correcto.

Esta entrada fue publicada en actuaciones estatales, Aspectos humanos, Ciencias computacionales, Computación personal, Derecho, Gestión del Conocimiento, Habeas data, Hermenéutica, Historia, Industria del software, Innovación, Libertad de información, Sector comunicaciones. Guarda el enlace permanente.