Newspeak AI: noticias totalmente falsas podrían destruir Internet

neolengua
¡Por favor comparta esta historia!
image_pdfimage_print
OpenAI se fundó en 2015 para promover y desarrollar IA que beneficiaría a la humanidad en su conjunto. En cambio, construyeron la IA más peligrosa concebible que podría destruir Internet y manipular las mentes de cada persona en la tierra.

OpenAI fue originalmente financiado, en parte, por Elon Musk, un tecnócrata consumado cuyo abuelo fue jefe de Technocracy, Inc., en Canadá durante los 1930 y 40. ⁃ TN Editor

Se ha actualizado un sistema de inteligencia artificial que genera historias, poemas y artículos realistas, y algunos afirman que ahora es casi tan bueno como un escritor humano.

El generador de texto construido por la firma de investigación OpenAI, originalmente se consideraba "demasiado peligroso" para hacer público debido a la posibilidad de abuso.

Pero ahora se ha lanzado una nueva versión más potente del sistema, que podría usarse para crear noticias falsas o spam abusivo en las redes sociales.

La BBC, junto con algunos expertos en inteligencia artificial, decidieron probarlo.

El modelo, llamado GPT-2, fue entrenado en un conjunto de datos de ocho millones de páginas web, y es capaz de adaptarse al estilo y contenido del texto inicial que se le da.

Puede terminar un poema de Shakespeare, así como escribir artículos y epítetos.

En ese momento, la firma dijo: “Debido a nuestras preocupaciones sobre las aplicaciones maliciosas de la tecnología, no estamos lanzando el modelo capacitado. Como experimento de divulgación responsable, estamos lanzando un modelo mucho más pequeño para que los investigadores experimenten con él ”.

Como resultado, la versión lanzada tenía muchos menos parámetros, frases y oraciones, que los utilizados durante el entrenamiento.

Este mes, OpenAI decidió expandir los parámetros, ofreciendo una base de datos mucho más amplia de datos de capacitación.

El sitio de noticias de tecnología The Next Web dijo de la actualización: "Éste funciona casi lo suficientemente bien como para usarlo como inteligencia artificial general para la generación de texto, casi".

El autor del artículo, Tristan Greene, agregó: Estoy aterrorizado de GPT-2 porque representa el tipo de tecnología que los humanos malvados van a usar para manipular a la población, y en mi opinión eso lo hace más peligroso que cualquier arma ".

La BBC decidió probar el sistema ingresando las primeras oraciones de una historia reciente, apropiadamente una sobre IA.

Comenzamos con la primera oración de la historia real:

El motor de búsqueda chino Sogou está creando imágenes de inteligencia artificial para leer novelas populares en las voces de los autores.

Esto es lo que se le ocurrió al generador de texto para completarlo:

Según los investigadores, este método de lectura no es solo una creación de los usuarios de Amazon Kindle. Los usuarios de dispositivos Android también son un mercado notable para la lectura falsa. Hay varias teorías para explicar esto.

En primer lugar, el dispositivo en la mano de un usuario es diferente de la tableta o computadora en la que está leyendo. En segundo lugar, el dispositivo utilizado para acceder a Internet podría ser manipulado de alguna manera. Una tercera razón es que el usuario puede simplemente copiar y pegar contenido directamente en sus caracteres virtuales.

Sin embargo, otra explicación es que el dispositivo no tiene capacidades de reconocimiento de voz en absoluto. Si este es el caso, el reconocimiento de voz es más avanzado que el motor de traducción de Google. Como tal, se engaña a estos usuarios para que piensen que están leyendo de un autor real: el libro se hace sonar auténtico tan pronto como lo intentan y leen.

Desde Hoy haga clic aquí para leer la historia real para comparacion.

Noel Sharkey, profesor de ciencias de la computación en la Universidad de Sheffield, realizó sus propias pruebas en el generador y no quedó muy impresionado.

Hombre entra en un bar

“Si el software funcionara según lo previsto por Open AI, sería una herramienta muy útil para generar fácilmente noticias falsas y spam de clickbait. Afortunadamente, en su forma actual, genera texto incoherente y ridículo con poca relación con los "titulares" de entrada ", dijo.

Añadió: "Probé el software con numerosos titulares y obtuve resultados ridículos. Por ejemplo, para 'Los pavos odian la Navidad', entendí que 'Turquía es la única nación en el mundo que no celebra la Navidad' y varias oraciones no relacionadas.

“Para 'Boris Johnson ama el backstop', produjo galimatías incoherentes y algunas cosas sobre IA y deporte. Cuando ingresé la afirmación de que 'Boris Johnson odia el tope', obtuve una historia más coherente que parece haber sido sacada de una búsqueda en Google ”.

Dave Coplin, fundador de la consultora de inteligencia artificial The Envisioners, también jugó con el sistema, introduciendo la primera línea de una broma clásica: Un hombre entra en un bar ...

La sugerencia de la IA no era lo que esperaba: “… Y ordenó dos pintas de cerveza y dos whisky. Cuando trató de pagar la cuenta, fue confrontado por dos hombres, uno de los cuales gritó "Esto es para Siria". Luego el hombre quedó sangrando y apuñaló en la garganta ”.

Esta "reflexión abrumadoramente distópica de nuestra sociedad" fue una lección sobre cómo cualquier sistema de IA reflejará el sesgo encontrado en los datos de entrenamiento, dijo.

"De mis breves experimentos con el modelo, está bastante claro que una gran parte de los datos han sido entrenados por las noticias de Internet", dijo.

Lea la historia completa aquí ...

¡Únete a nuestra lista de correos!


Suscríbete
Notificar de
invitado
2 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Jim Reinhart

Cuando las suposiciones subyacentes de la inteligencia de la heurística / IA están equivocadas, entonces todas las decisiones seguirán el camino de la estupidez programada de producir siempre un resultado que nunca se arreglará ya que las personas no podrán trabajar, pensar, actuar fuera de su jaulas de esclavos programadas por un grupo de idiotas que no tenían negocios en implementar un sistema tan rígido que no tiene conciencia, independientemente de cuán poderosas sean las computadoras o las variaciones computacionales del software maleable hecho por el hombre. Aquellos que están en este campamento creen en una mejor solución y no pueden identificar el continuo de... Lee mas "

Elle

Asombroso. Los poderes desagradables en el trabajo realmente están presionando mucho para poner en forma sus nuevos robots falsos de IA antes de que la batalla electoral comience en serio.

Asilo loco Jim? Tru dat, hermano.

La verdad subyacente de la amenaza de la IA escapa por completo a los creadores / codificadores muy, muy estúpidos, cuyo único objetivo es liberar sus robots de IA en Internet y en otros lugares. Son más como niños de 6 años con una caja de fósforos en un bosque seco que profesionales o adultos. No se tienen en cuenta los resultados que podrían provenir de AI, excepto uno, el de PROFIT.