------------------------------------------
Amenazas de los textos generados por IA
19 ene 2023
------------------------------------------
Todo el mundo está inquieto, revolucionado por la IA
últimamente y específicamente por ChatGPT. El hecho de
que fuera liberado nos ha permitido a muchos experimentar y
sorprendernos con sus aciertos y sus fallos.
Leo en Schneier on Security [1] el enlace a un documento que
explica extensamente las amenazas y métodos de detección ante
los avances en generación de lenguaje natural.
El documento en cuestión [2] supone según sus autores
la revisión más completa de los métodos de detección
informáticos hasta la fecha. También proporciona guías para
trabajos futuros.
Además ayer mismo Nature publicaba [3] un artículo diciendo
que al menos cuatro artículos citaban a ChatGPT como coautor
de trabajos de investigación. En el interesante artículo
entrevistan a varios editores a los que preguntan por la
conveniencia o no de incluir a la IA como coautor. El consenso
general parece ser que no pues "la máquina" no puede aceptar
o rechazar las responsabilidades que se adquieren sobre la
veracidad de un trabajo al ser publicado.
En todo caso y *por ahora* no parece que la parte más profunda
de una investigación pueda ser escrita por una IA.
Creo que nos queda mucho más que leer y escribir sobre el
tema en los próximos años ¿cómo haremos para distinguir
personas y máquinas? ¿de verdad puede llegar a ser el 90% del
contenido de lo que leemos en Internet generado por programas?
[1]:
https://www.schneier.com/blog/archives/2023/01/threats-of-machine-generated-text.html
[2]:
https://arxiv.org/pdf/2210.07321.pdf
[3]:
https://www.nature.com/articles/d41586-023-00107-z