Entrevista a RMS sobre Inteligencia Artificial
//////////////////////////////////////////////
- Antes de hacerle algunas preguntas específicas referente al software
libre, quisiera realizarle algunas más generales sobre lo que es la
inteligencia artificial, visto que que esta demuestra una fuerte
evolución. ¿Qué piensa de la inteligencia artificial, del uso de masas
de la inteligencia artificial?
RMS: Debemos hablar primero de lo que no es "inteligencia artificial",
pusto que este término es uno propagandístico cuyo sentido es confundir,
ya que mezcla dos cosas diferentes, que para nuestro entendimiento son
totalmente distintas y que nunca deben mezclarse juntas.
Yo defino inteligencia como la habilidad de comprender y entender cosas,
tal vez dentro de cierto dominio limitado. Al existir sistemas
artificiales que pueden comprender cosas y entenderlas, pienso que es
adecuado denominarlos "inteligencia artificial". Pero estos no incluyen
los programas de los cuales usualmente hablan ahora. Hoy en día la gente
menciona a los Grandes Modelos de Lenguaje, y estos no son inteligentes:
no pueden saber nada, no pueden entender nada, ni tienen medios para
hacerlo.
Sabemos como funcionan: no comprenden la semántica del texto con el que
juegan, todo lo que pueden hacer es jugar con texto. Comparan grandes
cantidades de texto, y se dicen "¿cuál texto conecta? intentaré esto".
Eso es todo en cuanto a entendimiento en lo referido al texto que
generan. De modo que no es inteligencia artificial, y este es un punto
importante - el mas importante, diría. El término "inteligencia
artificial" está siendo empleado actualmente como terminologia de
márketing por commpañías de negocios para confundir aquellos sistemas
con alguna inteligencia con otros sin inteligencia, con la finalidad que
la gente considere que los chatbots guardan comprensión de sus textos de
salida, aunque no los comprendan para nada en realidad.
- ¿Así que le gustaría usar el término Grandes Modelos de Lenguaje?
RMS: Si estamos hablando de Grandes Modelos de Lenguaje, llamémoslos de
esa forma, y asegurémonos de jamás utilizar el término "Inteligencia
Artificial", puesto esto supondría que esta incluye a los Grandes
Modelos de Lenguaje.
Verá, existen sistemas de inteligencia artificial que entienden algunas
cosas, aprenden y comprenden ciertas cosas dentro de un dominio dado.
En 1975, cuando me desempeñaba en el Laboratorio de Inteligencia
Artificial del MIT, trabajé junto al Prof. Sussman, y desarrollamos allí
un programa de inteligencia artificial que podía comprender el
comportamiento de circuitos eléctricos. Pero en lugar de recurrir a
resolver una gran cantidad de ecuaciones, el programa lo hacía en la
forma en la cual lo haría un ingeniero eléctrico humano. Verá, existen
reglas ciertas que abarcan los circuitos electrónicos: si tiene un
conjunto de cables que confluyen a un punto, la corriente que entra debe
ser igual a la que sale... responde a un requerimiento físico... tenemos
la Ley de Ohm: "el voltaje a través de una resistencia iguala la
resistencia multiplicada por la corriente que la atraviesa"... Bueno,
este programa conoce cómo aplicar estas leyes dadas y deduce voltajes,
corrientes, resistancias - o cualquier cosa no especificada previamente
- recurriendo a la aplicación de la Ley de Ohm y otras muchas leyes. Las
aplica una tras otra hasta entender el circuito.
Lo interesante, sin embargo, era la manera en la que soluciona el caso
de los transistores, considerando que estos no involucran una simple
función de entrada-salida sino que responden a varios estados posibles.
Según cierto conjunto de condiciones, determina uno entre estos estados.
El programa trabaja de la siguiente manera: conoce cuáles estados son
parte posible de distintos tipos de transistor, y de entre ellos supone
uno; si encuentra una contradicción determina que la suposición es
incorrecta, y supone otro caso de estado diferente para el mismo
transistor. Ante las condiciones deducidas, hace esto abarcando todo el
circuito en lo referente a los muchos transistores que podía tener. De
fallar, sabía que se encontraba ante un conjunto de suposiciones erradas
y buscaba otras distintas a la ya supuestas, o si eran correctas,
entonces las validaba. Esta técnica se denomina "retroceso dirigido por
dependencia".
De esta manera inteligente - bastante parecida a la forma en la que lo
haría un ingeniero humano - este programa puede entender un circuito, y
de hecho, yo mismo aprendí cómo entender circuitos electrónicos imitando
lo que hacía el programa.
(...)
- No hay un término en nuestro idioma para Gran Modelo de Lenguaje.
Es el modelo el que es grande, no es que lo grande es el lenguaje. El
idioma inglés es muy grande, el italiano también, el punto es que el
lenguaje no es grande, es el modelo el que lo es.
Cuando la gente oye de estos grandes modelos de lenguaje, suponen que
son inteligentes, y luego ven texto generados por uno, ¡y lo creen!.
Asumen que este programa entiende el texto que genera, pero jamás lo
hacen. Si usted asume que el programa entiende, entonces se preguntará
cómo es posible que cometa errores estúpidos, pues los cometen todo el
tiempo. A menudo errores obvios, pero existen casos peores cuando
cometen errores no tan obvios.
Por ejemplo, tenemos este caso del abogado que solicitó a uno de estos
chatbot: "deme un listado de decisiones legales pertinentes para apoyar
este caso". y el chatbot inventó referencias plausibles de casos
inexistentes. El abogado se dijo a sí mismo: "puesto que es una
inteligencia artificial, debe saber", e introdujo todas las conclusiones
en su portafolios y las presentó para su caso. Una vez descubierto que
esos casos no existían, el juez se rió de él: era texto ficticio que tan
sólo sonaba adecuado. Todo lo que un Gran Modelo de Lenguaje puede hacer
es fabricar texto que suene plausible. El hecho que sea correcto o no
escapa de la comprensión de un gran modelo de lenguaje, no están
diseñados para hacerlo. No tienen idea de la semántica.
- Y desde su punto de vista, ¿cómo se sostiene esto éticamente?
RMS: Bueno, tal vez sea tolerable tener grandes modelos de lenguaje en
existencia, provisto que nadie crea aquello que estos generan. El primer
paso es negarnos a referirnos a ellos como "inteligentes". Ese es el
motivo por el que - cuando alguien lo hace - objeto inmediatamente, ya
que es el punto más importante, el primero. Todos deben saberlo.
Yo sugeriría que debería existir legislación que sostenga que cuando hay
algo generado por un gran modelo de lenguaje se requiera advertir: "esto
fue generado por un gran modelo de lenguaje", a fin de que no se asuma
que es verdad.
- Como cambió su estilo de vida desde que estos modelos fueron
introducidos?
RMS: No tengo idea. Mi estilo de vida no cambió, excepto que ahora
presto mayor atención y llamo la atención a la gente de que el término
que ahora usan para la inteligencia artificial es incorrecto.
(...)
Bueno, el programa que Susmann y yo escribimos en 1975, era software
libre, y supongo que podríamos buscalo y publicarlo ahora si alguien
quisiera usarlo...
La inteligencia artificial es una descripción de tipos de trabajo que
deben realizarse y métodos para utilizar. No es un programa particular,
es imposible escribir un programa y decir "este programa es inteligencia
artificial". Podría decir "este programa es una instancia de
inteligencia artificial", es un ejemplo. Pero hay mucha gente
desarrollando programas que hacen inteligencia artificial, hacen
trabajos específicos.
Recientemente leí en un periódico que había un programa que podría
reconocer a partir de imágenes - según creo - el cáncer de mama, y que
puede hacer mejor esta labor que los patólogos humanos. Creo que es
evaluado en el servicio nacional de salud británico. Esto es muy bueno,
porque ya que entienden algo, es correcto llamarlo inteligente (provisto
que se use para lo que fue hecho). Sólo debería usar uno de estos
programas para resolver las labores que puede hacer. No debería usarlos
para otra cosa para la que no fueron hechos.
(...).
- ¿Qué opina de OpenAI y entrenarlo con una API?
No es siquiera un programa, ecepto en sentido indirecto. Lo que los
usuarios usan no es un programa que puedan correr por sí mismos. Toda
vez que dicen que un programa está supuestamente "disponible" poniéndolo
en un servidor, y colocando una interfaz, y afirmando "este es un
programa con una interfaz, envíenos la pregunta y nosotros haremos el
cómputo y le enviaremos el resultado", esto subyuga al usuario. No
puedes cambiar el programa que otro corre en su servidor: esa es su
copia, y no tienes derecho a cambiar su copia de su programa (incluso si
fuese software libre). Siéndolo, usted podría obtener una copia y
modificar su propia copia, pero no puede cambiar aquella copia puesto
que es la copia de otro, y quien tiene derecho a hacerlo es otro. Pero
esto quiere decir también que si tienes que usar la copia de otro, no
controlarás esa copia. Para tener control debes tener tu propia copia.
Por eso cuando alguien dice "puedes usar este programa, funciona en este
servidor, envía solicitudes a este servidor y nosotros te enviaremos la
respuesta", eso no respeta la libertad del usuario. Y yo nunca haría
eso. Si me invitan a hacer cómputo de esa manera digo no, porque insisto
en hacer mi cómputo en mi propia computadora con mi programa libre que
yo y otros usuarios podemos controlar.
Además de eso, el nombre OpenAI es engañoso, porque no es Inteligencia
Artificial sino que es un Gran Modelo de Lenguaje. Opino que deberían
cambiar el nombre a OpenLLM. Y a decir verdad incluso deberían cambiar
ese nombre a SecretLLM, porque no publican el código fuente de manera
alguna. El nombre OpenIA son dos mentiras.
-El último año me apasioné en crear música con IA.
RMS: ¿Porqué se la llama música con IA? ¿Qué usas realmente? Veamos si
realmente es IA.
- Usé dos plataformas en línea. Una es Suno y las otra es Udio.
RMS: No he oído de ellas, lo siento. ¿Estas son cosas como OpenLLM,
donde no puedes tener tu copia, solo enviar solicitudes a un servidor y
te las responde? - Escribo las letras de una canción en el prompt del
portal y éste genera la música, la voz y la canta.
RMS: Encuentro desafiante que cualquiera de esos sistemas puedan
llamarse inteligentes. Pero es un caso difícil, porque generar música es
distinto, ya que las letras y las músicas no necesitan ser verdaderas;
pueden combinarse para sonar bien y eso no es erróneo, aún podrían ser
buena música. Además la melodía no puede ser verdadera o falsa. No se
puede juzgar una melodía de esa manera, no es posible juzgar a las notas
diciendo "estas son verdaderas y aquellas falsas o engañosas". Así que
no estoy seguro si esto podría llamarse inteligencia artificial. Lo que
si puedo pensar es que realmente no te estás comunicando con algo que
realmente entiende las palabras. Podrías lograr algo como esas canciones
pop que hoy en día escriben los humanos, que también en secreto podrían
estar diseñadas por sistemas de cómputo, y no lo sabríamos. Lo que
quiero decir es que la música pop actual es mucho menos personal de lo
que solía ser.
- Muchas gracias!
Fuente:
Richard Stallman: "L’AI di OpenAI non è AI" – Il rapporto tra AI e GNU | AI Music Generation
Manuel Cuda News.
https://www.youtube.com/watch?v=V6c7GtVtiGc