Las herramientas de IA se pueden usar para 'editar' y 'pulir' el trabajo de los autores, dicen los organizadores de la conferencia, pero no se permite el texto 'producido en su totalidad' por IA. Esto plantea la pregunta: ¿dónde trazas la línea entre editar y escribir?
Una de las conferencias de aprendizaje automático más prestigiosas del mundo prohibió a los autores usar herramientas de IA como ChatGPT para escribir artículos científicos, lo que provocó un debate sobre el papel del texto generado por IA en el mundo académico.
La Conferencia Internacional sobre Aprendizaje Automático (ICML, por sus siglas en inglés) anunció la política a principios de esta semana, afirmando que “los documentos que incluyen texto generado a partir de un modelo de lenguaje a gran escala (LLM, por sus siglas en inglés) como ChatGPT están prohibidos, a menos que el texto producido se presente como parte del análisis experimental del artículo.” La noticia estalló debate generalizado en las redes sociales, con académicos e investigadores de AI defendiendo y criticando la política. Los organizadores de la conferencia respondieron publicar una declaración más larga explicando su pensamiento. (La ICML respondió a las solicitudes de The Verge para comentarios dirigiéndonos a esta misma declaración.)
Según ICML, el auge de los modelos de lenguaje de IA de acceso público como ChatGPT, un chatbot de IA de propósito general que lanzado en la web el pasado mes de noviembre – representa un desarrollo "emocionante" que, sin embargo, viene con "consecuencias imprevistas [y] preguntas sin respuesta". La ICML dice que éstas incluyen preguntas sobre quién posee la salida de tales sistemas (están capacitados en datos públicos, que generalmente se recopilan sin consentimiento y, a veces, regurgitan esta información palabra por palabra) y si el texto y las imágenes generados por IA deben "considerarse novedosos o meros derivados del trabajo existente".
La última pregunta se conecta con un debate complicado sobre la autoría, es decir, quién "escribe" un texto generado por IA: ¿la máquina o su controlador humano? Esto es particularmente importante dado que ICML solo prohíbe el texto "producido en su totalidad" por AI. Los organizadores de la conferencia dicen que están no prohibiendo el uso de herramientas como ChatGPT "para editar o pulir el texto escrito por el autor" y tenga en cuenta que muchos autores ya usaban "herramientas de edición semiautomáticas" como el software de corrección gramatical Grammarly para este propósito.
“Es seguro que estas preguntas, y muchas más, serán respondidas con el tiempo, a medida que estos modelos generativos a gran escala se adopten más ampliamente. Sin embargo, aún no tenemos respuestas claras a ninguna de estas preguntas”, escriben los organizadores de la conferencia.
Como resultado, ICML dice que su prohibición de texto generado por IA se reevaluará el próximo año.
Sin embargo, es posible que las preguntas que aborda la ICML no se resuelvan fácilmente. La disponibilidad de herramientas de IA como ChatGPT está causando confusión en muchas organizaciones, algunas de las cuales han respondido con sus propias prohibiciones. El año pasado, el sitio de preguntas y respuestas de codificación Stack Overflow prohibió a los usuarios enviar respuestas creadas con ChatGPT, mientras que el Departamento de Educación de la Ciudad de Nueva York bloqueó el acceso a la herramienta para cualquier persona en su red solo esta semana.
En cada caso, existen diferentes temores sobre los efectos nocivos del texto generado por IA. Uno de los más comunes es que la salida de estos sistemas simplemente no es confiable. Estas herramientas de IA son vastos sistemas de autocompletado, entrenados para predecir qué palabra sigue a la siguiente en una oración determinada. Como tal, no tienen una base de datos codificada de "hechos" en la que basarse, solo la capacidad de escribir declaraciones que suenen plausibles. esto significa que ellos tienen una tendencia a presentar información falsa como verdad ya que si una oración dada suena plausible no garantiza su factibilidad.
En el caso de la prohibición de ICML del texto generado por IA, otro desafío potencial es distinguir entre la escritura que solo ha sido "pulida" o "editada" por IA y la que ha sido "producida en su totalidad" por estas herramientas. ¿En qué punto una serie de pequeñas correcciones guiadas por IA constituyen una reescritura más grande? ¿Qué pasa si un usuario le pide a una herramienta de inteligencia artificial que resuma su artículo en un resumen ágil? ¿Esto cuenta como texto recién generado (porque el texto es nuevo) o como mero pulido (porque es un resumen de las palabras que escribió el autor)?
Esto es como promulgar una ley en 1905 que permite automóviles, pero solo si son tirados por un caballo.
¡PROHIBE a los autores el uso de herramientas de IA! Buena suerte con eso. Y OJ Simpson sigue buscando al verdadero asesino.
Estaba escuchando su informe Quickening sobre este tema y decidí comentar aquí. (1) Usted indica que ChatGPT puede realizar falsificaciones profundas de voz en off para videos. Esto también podría ser una artimaña de propaganda para que los actores de Deep State puedan negar lo que realmente dijeron en la evidencia de video que recopilamos. (2) De lo único que puedo estar seguro es de que no sé qué hay al otro lado de la interfaz. ¿Quién o qué es el hombre detrás de la cortina? ¿Cuándo es una IA, un ser humano o un propagandista? Véase también el concepto de Mecánica... Leer más »