Newspeak AI: noticias totalmente falsas podrían destruir Internet

neolengua
¡Por favor comparta esta historia!
OpenAI se fundó en 2015 para promover y desarrollar IA que beneficiaría a la humanidad en su conjunto. En cambio, construyeron la IA más peligrosa concebible que podría destruir Internet y manipular las mentes de cada persona en la tierra.

OpenAI fue originalmente financiado, en parte, por Elon Musk, un tecnócrata consumado cuyo abuelo fue jefe de Technocracy, Inc., en Canadá durante los 1930 y 40. ⁃ TN Editor

Se ha actualizado un sistema de inteligencia artificial que genera historias, poemas y artículos realistas, y algunos afirman que ahora es casi tan bueno como un escritor humano.

El generador de texto construido por la firma de investigación OpenAI, originalmente se consideró "demasiado peligroso" para hacer público debido al potencial de abuso.

Pero ahora se ha lanzado una versión nueva y más poderosa del sistema, que podría usarse para crear noticias falsas o spam abusivo en las redes sociales.

La BBC, junto con algunos expertos en inteligencia artificial, decidieron probarlo.

El modelo, llamado GPT-2, fue entrenado en un conjunto de datos de ocho millones de páginas web, y es capaz de adaptarse al estilo y contenido del texto inicial que se le da.

Puede terminar un poema de Shakespeare, así como escribir artículos y epítetos.

En ese momento, la empresa dijo: “Debido a nuestras preocupaciones sobre las aplicaciones maliciosas de la tecnología, no estamos lanzando el modelo entrenado. Como experimento de divulgación responsable, en su lugar estamos lanzando un modelo mucho más pequeño para que los investigadores experimenten ".

Como resultado, la versión publicada tenía muchos menos parámetros (frases y oraciones) que los utilizados durante el entrenamiento.

Este mes, OpenAI decidió expandir los parámetros, ofreciendo una base de datos mucho más amplia de datos de capacitación.

El sitio de noticias de tecnología The Next Web dijo de la actualización: "Este funciona casi lo suficientemente bien como para usarlo como inteligencia artificial general para la generación de texto, casi".

El autor del artículo Tristan Greene agregó: Me aterroriza GPT-2 porque representa el tipo de tecnología que los humanos malvados van a usar para manipular a la población, y en mi opinión, eso la hace más peligrosa que cualquier arma ”.

La BBC decidió probar el sistema ingresando las primeras oraciones de una historia reciente, apropiadamente una sobre IA.

Comenzamos con la primera oración de la historia real:

El motor de búsqueda chino Sogou está creando imitaciones de inteligencia artificial para leer novelas populares con la voz de los autores.

Esto es lo que se le ocurrió al generador de texto para completarlo:

Según los investigadores, este método de lectura no es solo una creación de los usuarios de Amazon Kindle. Los usuarios de dispositivos Android también son un mercado notable para la lectura falsa. Hay varias teorías para explicar esto.

En primer lugar, el dispositivo en la mano de un usuario es diferente de la tableta o computadora en la que está leyendo. En segundo lugar, el dispositivo utilizado para acceder a Internet podría estar alterado de alguna manera. Una tercera razón es que el usuario puede simplemente copiar y pegar contenido directamente en sus personajes virtuales.

Sin embargo, otra explicación es que el dispositivo no tiene ninguna capacidad de reconocimiento de voz. Si este es el caso, el reconocimiento de voz es más avanzado que el motor de traducción de Google. Como tal, se engaña a estos usuarios haciéndoles creer que están leyendo de un autor real: el libro está hecho para que suene auténtico tan pronto como intentan leerlo.

Actualmente haga clic aquí para leer la historia real para comparacion.

Noel Sharkey, profesor de ciencias de la computación en la Universidad de Sheffield, realizó sus propias pruebas en el generador y no quedó muy impresionado.

Hombre entra en un bar

“Si el software funcionara según lo previsto por Open AI, sería una herramienta muy útil para generar fácilmente noticias falsas y spam de clickbait. Afortunadamente, en su forma actual, genera un texto incoherente y ridículo con poca relación con los 'titulares' de entrada ”, dijo.

Añadió: “Probé el software con numerosos titulares y obtuve resultados irrisorios. Por ejemplo, para 'Los pavos odian la Navidad', entendí que 'Turquía es la única nación en el mundo que no celebra la Navidad' y varias oraciones no relacionadas.

“Para 'Boris Johnson ama el backstop', produjo un galimatías incoherente y algunas cosas sobre la IA y el deporte. Cuando ingresé la declaración de que 'Boris Johnson odia el respaldo', obtuve una historia más coherente que parece haber sido sacada de una búsqueda en Google ".

Dave Coplin, fundador de la consultora de inteligencia artificial The Envisioners, también jugó con el sistema, introduciendo la primera línea de una broma clásica: Un hombre entra en un bar ...

La sugerencia de la IA no fue la que esperaba: “… Y pidió dos pintas de cerveza y dos whisky. Cuando trató de pagar la cuenta, se enfrentó a dos hombres, uno de los cuales gritó "Esto es para Siria". El hombre quedó sangrando y apuñalado en la garganta ”.

Este "reflejo abrumadoramente distópico de nuestra sociedad" fue una lección sobre cómo cualquier sistema de IA reflejará el sesgo encontrado en los datos de entrenamiento, dijo.

“A partir de mis breves experimentos con el modelo, está bastante claro que una gran parte de los datos han sido entrenados por noticias de Internet”, dijo.

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

1 Comentario
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Ella

Asombroso. Los poderes desagradables en el trabajo realmente están presionando mucho para poner en forma sus nuevos robots falsos de IA antes de que la batalla electoral comience en serio.

Asilo loco Jim? Tru dat, hermano.

La verdad subyacente de la amenaza de la IA escapa por completo a los muy, muy estúpidos creadores / codificadores cuyo único objetivo es desatar sus bots de IA en Internet y en otros lugares. Son más como niños de 6 años con una caja de fósforos en un bosque seco que como profesionales o adultos. No se toman en consideración los resultados que podrían provenir de la IA, excepto uno: el de PROFIT.