------------------------------------------
   Amenazas de los textos generados por IA
   19 ene 2023
   ------------------------------------------

   Todo el mundo está inquieto, revolucionado por la IA
   últimamente y específicamente por ChatGPT. El hecho de
   que fuera liberado nos ha permitido a muchos experimentar y
   sorprendernos con sus aciertos y sus fallos.

   Leo en Schneier on Security [1] el enlace a un documento que
   explica extensamente las amenazas y métodos de detección ante
   los avances en generación de lenguaje natural.

   El documento en cuestión [2] supone según sus autores
   la revisión más completa de los métodos de detección
   informáticos hasta la fecha.  También proporciona guías para
   trabajos futuros.

   Además ayer mismo Nature publicaba [3] un artículo diciendo
   que al menos cuatro artículos citaban a ChatGPT como coautor
   de trabajos de investigación. En el interesante artículo
   entrevistan a varios editores a los que preguntan por la
   conveniencia o no de incluir a la IA como coautor. El consenso
   general parece ser que no pues "la máquina" no puede aceptar
   o rechazar las responsabilidades que se adquieren sobre la
   veracidad de un trabajo al ser publicado.

   En todo caso y *por ahora* no parece que la parte más profunda
   de una investigación pueda ser escrita por una IA.

   Creo que nos queda mucho más que leer y escribir sobre el
   tema en los próximos años ¿cómo haremos para distinguir
   personas y máquinas? ¿de verdad puede llegar a ser el 90% del
   contenido de lo que leemos en Internet generado por programas?


   [1]: https://www.schneier.com/blog/archives/2023/01/threats-of-machine-generated-text.html
   [2]: https://arxiv.org/pdf/2210.07321.pdf
   [3]: https://www.nature.com/articles/d41586-023-00107-z