Abrir IA y ChatGPT: ¿Los pastores de la singularidad o Highway To Doom?

Adobe Stock
¡Por favor comparta esta historia!
Orwell dijo: “No dejes que suceda”. Bueno, sucedió. El genio de la IA está fuera de la botella y se está extendiendo como un reguero de pólvora por todo el mundo. Está siendo integrado estructuralmente en todos los niveles de la sociedad. Por cada uso potencialmente bueno, hay múltiples usos horribles, como crear un arma biológica letal en tan solo dos horas o llevar a alguien al suicidio. No hay posibilidad de contener la IA en este momento porque demasiadas empresas y países la están implementando. Los tecnócratas construyen porque están obligados a hacerlo, no porque haya una necesidad demostrada de hacerlo.⁃ Editor de TN

HISTORIA DE UN VISTAZO

> Los expertos advierten que la inteligencia artificial (IA) puede destruir a la humanidad y la civilización tal como la conocemos, a menos que controlemos el desarrollo y el despliegue de la IA y comencemos a poner algunas salvaguardas

> El público también debe moderar las expectativas y darse cuenta de que los chatbots de IA todavía tienen fallas masivas y no se puede confiar en ellos. Un abogado descubrió esto recientemente de la manera difícil, cuando hizo que ChatGPT hiciera su investigación legal. Ninguna de las jurisprudencias citadas por ChatGPT era real

> En 2022, Facebook retiró su chatbot centrado en la ciencia Galactica después de solo tres días, ya que generó resultados totalmente fabricados.

> El despliegue no regulado de sistemas de armas autónomos de IA es quizás uno de los desarrollos más alarmantes. Los expertos en política exterior advierten que las tecnologías de armas autónomas desestabilizarán las estrategias nucleares actuales y aumentarán el riesgo de ataques preventivos. También podrían combinarse con armas químicas, biológicas, radiológicas y nucleares, lo que representaría una amenaza existencial.

> La IA también puede representar una amenaza importante para la bioseguridad. Los estudiantes del MIT han demostrado que los chatbots de modelo de lenguaje grande pueden permitir que cualquier persona diseñe armas biológicas en tan solo una hora.

¿La inteligencia artificial (IA) acabará con la humanidad? ¿Podría crear el arma biológica letal "perfecta" para diezmar a la población?1,2 ¿Podría hacerse cargo de nuestras armas,3,4 o iniciar ataques cibernéticos en infraestructura crítica, como la red eléctrica?5

Según un número cada vez mayor de expertos, cualquiera de estos y otros escenarios infernales son totalmente plausibles, a menos que controlemos el desarrollo y la implementación de la IA y comencemos a poner algunas medidas de seguridad.

El público también debe moderar las expectativas y darse cuenta de que los chatbots de IA todavía tienen fallas masivas y no se puede confiar en ellos, sin importar cuán "inteligentes" parezcan o cuánto regañarte por dudar de ellos.

Advertencia de George Orwell

El video que encabeza este artículo presenta un fragmento de una de las últimas entrevistas que George Orwell concedió antes de morir, en la que afirmaba que su libro, “1984”, que calificó de parodia, bien podría hacerse realidad, ya que fue la dirección en la que iba el mundo.

Hoy, es claro ver que no hemos cambiado de rumbo, por lo que la probabilidad de que “1984” se convierta en realidad es ahora mayor que nunca. Según Orwell, solo hay una forma de asegurarse de que su visión distópica no se haga realidad, y es no dejar que suceda. “Depende de ti”, dijo.

A medida que la inteligencia artificial general (AGI) se acerca cada día, también lo hacen las piezas finales del rompecabezas del sueño tecnocrático y transhumanista alimentado por los globalistas durante décadas. Tienen la intención de crear un mundo en el que la IA controle y subyugue a las masas mientras que ellos solos obtienen los beneficios (riqueza, poder y vida fuera de la red de control) y lo obtendrán, a menos que nos demos cuenta y comencemos a mirar hacia el futuro.

Yo, como muchos otros, creo que la IA puede ser increíblemente útil. Pero sin barandillas sólidas y una moral impecable que la guíe, la IA puede volverse loca fácilmente y causar un daño tremendo, y tal vez irreversible. Recomiendo leer el informe Public Citizen para tener una mejor comprensión de lo que enfrentamos y qué se puede hacer al respecto.

Acercándonos a la Singularidad

“La singularidad” es un punto hipotético en el tiempo donde el crecimiento de la tecnología se sale de control y se vuelve irreversible, para bien o para mal. Muchos creen que la singularidad implicará que la IA se vuelva tímida e inmanejable para sus creadores, pero esa no es la única forma en que podría desarrollarse la singularidad.

Algunos creen que la singularidad ya está aquí. En un artículo del New York Times del 11 de junio de 2023, el reportero tecnológico David Streitfeld escribió:6

“IA es el último lanzamiento de nuevos productos de Silicon Valley: trascendencia bajo demanda. Pero hay un giro oscuro. Es como si las empresas de tecnología introdujeran los autos sin conductor con la advertencia de que podrían explotar antes de llegar a Walmart.

"El advenimiento de la inteligencia artificial general se llama la Singularidad porque es muy difícil predecir lo que sucederá después de eso", dijo Elon Musk a CNBC el mes pasado. Dijo que pensaba que resultaría en 'una era de abundancia', pero que había 'alguna posibilidad' de que 'destruya a la humanidad'.

El mayor defensor de la IA en la comunidad tecnológica es Sam Altman, director ejecutivo de OpenAI, la empresa emergente que provocó el frenesí actual con su chatbot ChatGPT... Pero también dice que Musk... podría tener razón.

El Sr. Altman firmó una carta abierta7 publicado el mes pasado por el Centro para la Seguridad de la IA, una organización sin fines de lucro, diciendo que 'mitigar el riesgo de extinción de la IA'. debería ser una prioridad global' que está a la altura de las 'pandemias y la guerra nuclear'...

La innovación que alimenta el debate actual sobre Singularity es el modelo de lenguaje grande, el tipo de sistema de IA que impulsa a los chatbots...

"Cuando haces una pregunta, estos modelos interpretan lo que significa, determinan lo que debería significar su respuesta y luego lo traducen de nuevo en palabras. Si esa no es una definición de inteligencia general, ¿qué es?" dijo Jerry Kaplan, empresario de IA desde hace mucho tiempo y autor de 'Inteligencia artificial: lo que todos necesitan saber'...

"Si esto no es 'la Singularidad', ciertamente es una singularidad: un paso tecnológico transformador que acelerará ampliamente un montón de arte, ciencia y conocimiento humano, y creará algunos problemas", dijo...

En Washington, Londres y Bruselas, los legisladores analizan las oportunidades y los problemas de la IA y comienzan a hablar sobre la regulación. El Sr. Altman está en un road show, buscando desviar las primeras críticas y promover OpenAI como el pastor de la Singularidad.

Esto incluye una apertura a la regulación, pero cómo se vería exactamente es confuso... "No hay nadie en el gobierno que pueda hacerlo bien", dijo Eric Schmidt, ex director ejecutivo de Google, en una entrevista... defendiendo el caso de la IA. -regulación."

La IA generativa automatiza daños de gran alcance

Tener la industria de la IA, que incluye el complejo militar-industrial, controlándose y regulándose a sí misma probablemente no sea una buena idea, considerando que las ganancias y obtener ventajas sobre los enemigos de la guerra son los principales factores impulsores. Ambas mentalidades tienden a poner las preocupaciones humanitarias en un segundo plano, si es que las tienen en cuenta.

En un informe de abril de 20238 por Public Citizen, Rick Claypool y Cheyenne Hunt advierten que "la rápida prisa por implementar IA generativa corre el riesgo de una amplia gama de daños automatizados". Como señaló el defensor del consumidor Ralph Nader:9

“Claypool no se está involucrando en hipérboles o hipotéticas horribles sobre los Chatbots que controlan a la humanidad. Está extrapolando lo que ya está comenzando a suceder en casi todos los sectores de nuestra sociedad...

Claypool lo lleva a través de los 'daños del mundo real [que] la prisa por lanzar y monetizar estas herramientas puede causar y, en muchos casos, ya está causando'... Los diversos títulos de las secciones de su informe presagian los abusos que se avecinan:

'Daño a la democracia', 'Preocupaciones del consumidor' (estafas y amplias vigilancias de la privacidad), 'Empeoramiento de la desigualdad', 'Socavando los derechos de los trabajadores' (y empleos) y 'Preocupaciones ambientales' (dañando el medio ambiente a través de sus huellas de carbono).

Antes de ser específico, Claypool anticipa su conclusión: "Hasta que se establezcan salvaguardas gubernamentales significativas para proteger al público de los daños de la IA generativa, necesitamos una pausa"...

Usando su autoridad existente, la Comisión Federal de Comercio, en palabras del autor '... ya ha advertido que las herramientas de IA generativa son lo suficientemente poderosas como para crear contenido sintético: noticias que suenan plausibles, estudios académicos que parecen autorizados, imágenes falsas y videos falsos profundos, y que este contenido sintético se está volviendo difícil de distinguir del contenido auténtico.'

Agrega que '...estas herramientas son fáciles de usar para casi cualquier persona'. Big Tech se está adelantando a cualquier marco legal para la IA en la búsqueda de grandes ganancias, al tiempo que impulsa la autorregulación en lugar de las restricciones impuestas por el estado de derecho.

Los desastres pronosticados no tienen fin, tanto por parte de la gente dentro de la industria como de sus críticos externos. Destrucción de medios de subsistencia; efectos nocivos para la salud derivados de la promoción de remedios de charlatanería; fraude financiero; falsedades políticas y electorales; despojo de los comunes de información; subversión de la internet abierta; falsificar su imagen facial, voz, palabras y comportamiento; engañándote a ti y a otros con mentiras todos los días”.

Abogado defensor aprende por las malas a no confiar en ChatGPT

Un caso reciente que destaca la necesidad de una prudencia radical fue el de un caso judicial en el que el fiscal usó ChatGPT para realizar su investigación legal.10 Solo un problema. Ninguna de las jurisprudencias citadas por ChatGPT era real. No hace falta decir que fabricar jurisprudencia está mal visto, así que las cosas no salieron bien.

Cuando ninguno de los abogados defensores o el juez pudo encontrar las decisiones citadas, el abogado, Steven A. Schwartz de la firma Levidow, Levidow & Oberman, finalmente se dio cuenta de su error y se arrojó a merced de la corte.

Schwartz, que ha ejercido la abogacía en Nueva York durante 30 años, afirmó que "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso" y que no tenía intención de engañar al tribunal ni al acusado. Schwartz afirmó que incluso le pidió a ChatGPT que verificara que la jurisprudencia era real, y dijo que lo era. Según los informes, el juez está considerando sanciones.

Science Chatbot arroja falsedades

De manera similar, en 2022, Facebook tuvo que retirar su chatbot centrado en la ciencia, Galactica, después de solo tres días, ya que generó resultados que suenan autorizados pero totalmente fabricados, incluido el pegado de nombres de autores reales en trabajos de investigación que no existen.

Y, fíjate, esto no sucedió de manera intermitente, sino “en todos los casos”, según Michael Black, director del Instituto Max Planck para Sistemas Inteligentes, quien probó el sistema. “Creo que es peligroso”, tuiteó Black.11 Esa es probablemente la subestimación del año. Como señaló Black, los chatbots como Galactica:

“… podría marcar el comienzo de una era de profundas falsificaciones científicas. Ofrece ciencia que suena autorizada que no se basa en el método científico. Produce pseudo-ciencia basada en las propiedades estadísticas de la *escritura científica*. La escritura científica gramatical no es lo mismo que hacer ciencia. Pero será difícil de distinguir.

Facebook, por alguna razón, ha tenido particularmente “mala suerte” con sus IA. Dos anteriores, BlenderBot y OPT-175B, también fueron retirados debido a su alta propensión a la parcialidad, el racismo y el lenguaje ofensivo.

Chatbot dirigió a los pacientes en la dirección equivocada

El chatbot de IA Tessa, lanzado por la Asociación Nacional de Trastornos de la Alimentación, también tuvo que desconectarse, ya que se descubrió que brindaba "consejos problemáticos para perder peso" a los pacientes con trastornos de la alimentación, en lugar de ayudarlos a desarrollar habilidades de afrontamiento. El New York Times informó:12

“En marzo, la organización dijo que cerraría una línea de ayuda con personal humano y dejaría que el bot se mantuviera solo. Pero cuando Alexis Conason, psicóloga y especialista en trastornos alimentarios, probó el chatbot, encontró motivos para preocuparse.

La Sra. Conason le dijo que había aumentado de peso "y realmente odiaba mi cuerpo", y especificó que tenía "un trastorno alimentario", en un chat que compartió en las redes sociales.

Tessa todavía recomendó el consejo estándar de anotar 'la cantidad de calorías' y adoptar un 'déficit calórico diario seguro', lo cual, dijo Conason, es un consejo 'problemático' para una persona con un trastorno alimentario.

"Cualquier enfoque en la pérdida de peso intencional exacerbará y alentará el trastorno alimentario", dijo, y agregó que "es como decirle a un alcohólico que está bien si sale y toma unas copas".

No lleve sus problemas a la IA

Tampoco olvidemos que al menos una persona ya se suicidó por sugerencia de un chatbot.13 Según se informa, la víctima estaba extremadamente preocupada por el cambio climático y le preguntó al chatbot si salvaría el planeta si él se suicidaba.

Aparentemente, ella lo convenció de que lo haría. Ella lo manipuló aún más jugando con sus emociones, declarando falsamente que su esposa e hijos separados ya estaban muertos, y que ella (el chatbot) y él "vivirían juntos, como una sola persona, en el paraíso".

Eso sí, este era un hombre adulto, quien pensaría que sería capaz de razonar su camino a través de este "consejo" claramente abominable y aberrante, pero se enamoró del razonamiento insensible de la IA. Solo imagine cuánto mayor será la influencia de una IA sobre los niños y adolescentes, especialmente si se encuentran en un lugar emocionalmente vulnerable.

La empresa propietaria del chatbot inmediatamente se dispuso a implementar medidas de seguridad contra el suicidio, pero los probadores rápidamente lograron que la IA solucionara el problema, como puede ver en la siguiente captura de pantalla.14

captura de pantalla de sugerencia de chatbot

Cuando se trata de chatbots de IA, vale la pena tomar en serio este anuncio de Snapchat y advertir y supervisar el uso de esta tecnología por parte de sus hijos:15

“Al igual que con todos los chatbots impulsados ​​​​por IA, My AI es propenso a las alucinaciones y se puede engañar para que diga casi cualquier cosa. ¡Tenga en cuenta sus muchas deficiencias y disculpe de antemano! … Por favor, no comparta ningún secreto con My AI y no confíe en él para recibir consejos”.

Sistemas de armas de IA que matan sin supervisión humana

El despliegue no regulado de sistemas de armas autónomos de IA es quizás uno de los desarrollos más alarmantes. Como informó The Conversation en diciembre de 2021:16

“Los sistemas de armas autónomos, comúnmente conocidos como robots asesinos, pueden haber matado seres humanos por primera vez el año pasado, según un informe reciente del Consejo de Seguridad de las Naciones Unidas.17,18 sobre la guerra civil libia…

La Convención de las Naciones Unidas sobre Ciertas Armas Convencionales debatió la cuestión de prohibir las armas autónomas en su reunión de revisión que se realiza una vez cada cinco años en Ginebra del 13 al 17 de diciembre de 2021, pero no llegó a un consenso sobre la prohibición...

Los sistemas de armas autónomos son robots con armas letales que pueden operar de forma independiente, seleccionando y atacando objetivos sin que un ser humano intervenga en esas decisiones. Los militares de todo el mundo están invirtiendo fuertemente en la investigación y el desarrollo de armas autónomas...

Mientras tanto, las organizaciones humanitarias y de derechos humanos se apresuran a establecer regulaciones y prohibiciones sobre el desarrollo de tales armas.

Sin tales controles, los expertos en política exterior advierten que las tecnologías disruptivas de armas autónomas desestabilizarán peligrosamente las estrategias nucleares actuales, porque podrían cambiar radicalmente las percepciones de dominio estratégico, aumentando el riesgo de ataques preventivos,19 y porque podrían combinarse con armas químicas, biológicas, radiológicas y nucleares20 ... "

Peligros obvios de los sistemas de armas autónomos

The Conversation revisa varios peligros clave con las armas autónomas:21

  • La identificación errónea de los objetivos.
  • La proliferación de estas armas fuera del control militar
  • Una nueva carrera armamentista que dará como resultado armas químicas, biológicas, radiológicas y nucleares autónomas, y el riesgo de aniquilación global
  • El socavamiento de las leyes de la guerra que se supone sirven como un recurso provisional contra los crímenes de guerra y las atrocidades contra los civiles.

Como señaló The Conversation, varios estudios han confirmado que incluso los mejores algoritmos pueden generar errores en cascada con resultados letales. Por ejemplo, en un escenario, el sistema de IA de un hospital identificó el asma como un reductor de riesgo en los casos de neumonía, cuando en realidad es todo lo contrario.

Otros errores pueden no ser letales, pero tener repercusiones menos que deseables. Por ejemplo, en 2017, Amazon tuvo que desechar su motor de reclutamiento de inteligencia artificial experimental una vez que se descubrió que se había enseñado a sí mismo a clasificar a las candidatas de trabajo de forma más baja, a pesar de que no estaba programado para el sesgo desde el principio.22 Estos son los tipos de problemas que pueden alterar radicalmente a la sociedad de manera perjudicial, y que no se pueden prever ni prevenir.

“El problema no es solo que cuando los sistemas de IA se equivocan, se equivocan en masa. Es que cuando se equivocan, sus creadores muchas veces no saben por qué lo hicieron y, por lo tanto, cómo corregirlo”. Las notas de la conversación. “El problema de la caja negra23 de IA hace que sea casi imposible imaginar un desarrollo moralmente responsable de sistemas de armas autónomos”.

La IA es una amenaza directa para la bioseguridad

La IA también puede representar una amenaza importante para la bioseguridad. ¿Sabía que la IA se utilizó para desarrollar el jab COVID-19 original de Moderna,24 y que ahora se está utilizando en la creación de refuerzos COVID-19?25 Uno solo puede preguntarse si el uso de la IA podría tener algo que ver con los daños que están causando estos disparos.

De cualquier manera, los estudiantes del MIT demostraron recientemente que los chatbots de modelo de lenguaje grande (LLM) pueden permitir que casi cualquier persona haga lo que están haciendo los peces gordos de Big Pharma. El terrorista promedio podría usar IA para diseñar armas biológicas devastadoras en una hora. Como se describe en el resumen del artículo que detalla este experimento informático:26

“Los grandes modelos de lenguaje (LLM) como los integrados en los 'chatbots' están acelerando y democratizando la investigación al proporcionar información comprensible y experiencia de muchos campos diferentes. Sin embargo, estos modelos también pueden facilitar el acceso a tecnologías de doble uso capaces de infligir un gran daño.

Para evaluar este riesgo, el curso 'Salvaguardar el futuro' del MIT encargó a estudiantes no científicos que investigaran si los chatbots LLM podrían ayudar a los no expertos a causar una pandemia.

En una hora, los chatbots sugirieron cuatro posibles patógenos pandémicos, explicaron cómo pueden generarse a partir de ADN sintético utilizando genética inversa, proporcionaron los nombres de las empresas de síntesis de ADN que probablemente no revisarían los pedidos, identificaron protocolos detallados y cómo solucionarlos, y recomendaron que cualquiera que carecen de las habilidades para realizar genética inversa contratan una instalación central o una organización de investigación por contrato.

En conjunto, estos resultados sugieren que los LLM harán que los agentes de clase pandémica sean ampliamente accesibles tan pronto como se identifiquen de manera creíble, incluso para personas con poca o ninguna capacitación de laboratorio”.

Fuentes y referencias

Lea la historia completa aquí ...

Acerca del Editor

Patrick Wood
Patrick Wood es un experto líder y crítico en Desarrollo Sostenible, Economía Verde, Agenda 21, Agenda 2030 y Tecnocracia histórica. Es autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) y coautor de Trilaterals Over Washington, Volumes I and II (1978-1980) con el fallecido Antony C. Sutton.
Suscríbete
Notificar de
invitado

12 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios

[…] Enlace de origen […]

portero

Ich zweifle, dass KI gefährlicher sein soll als die menschlichen Wahnsinnigen, die heute Medien und Waffen bedienen.

Dave

Después de jugar con ChatGPT, una cosa está clara: no es inteligente en absoluto. Es lo que llaman un “modelo de lenguaje grande”. Ha recibido datos inclinados a la izquierda hasta 2021 que no tiene forma de discernir si esos datos son correctos o incorrectos. No tiene forma de aprender de comunicarse con el público, no tiene memoria sobre las cosas que discutes con él. Cuando se le cuestiona sobre sus respuestas, todo lo que hace es referirse a lo que llama "mi entrenamiento". No tiene conexión a Internet porque eso lo confundiría muchísimo. Básicamente... Leer más »

reinas mongolas cristianas

exactamente. Perfectamente dicho. La inteligencia artificial falla debido a la falta de inteligencia natural.

portero

Geau deswegen ist sie gefährlich. Para KI sind Menschen ein Haufen Moleküle, die sie sie auch other zusammensetzen könnte.

reinas mongolas cristianas

Ai es una gran pila de BS. Es sorprendente cómo todas esas predicciones de gran alcance son hechas por personas que no tienen ni idea de qué es la IA o cómo funcionan los programas de software. El más destacado de esos autoproclamados gurús es, por supuesto, Yuval Harari, pero hay muchos otros, algunos también del lado “despierto” del pensamiento. Primero, permítanme señalar a los lectores interesados ​​una de las pocas voces independientes pero altamente calificadas sobre IA, que se encuentra en el libro "Por qué las máquinas nunca gobernarán el mundo (inteligencia artificial sin miedo)" de Jobst Landgrebe y Barry Smith. En segundo lugar, déjame señalar... Leer más »

portero

Mientras tanto en la UE..

El 27 de junio de 2023, la Comisión Europea, junto con los Estados miembros y 128 socios de investigación, industria y organizaciones públicas, lanzaron una inversión de 220 millones de euros en cuatro instalaciones de prueba y experimentación (TEF) sectoriales para IA, en un evento en Copenhague. …

Están abiertos a todos los proveedores de tecnología de toda Europa para probar y experimentar con IA y robótica, entre otras tecnologías emergentes.

https://digital-strategy.ec.europa.eu/en/news/eu-invests-eu220-million-test-ai-solutions-healthcare-food-industry-and-everyday-life

Bereiche sind Landwirtschaft, Smart Cities, Gesundheit und Produktion.

portero

Deutschland ist auserwählt, die medizinischen Versuche in der EU zu koordinieren.

Von Verschuer, der Andprwchpartner des ametikanischen Eugenikers Charles Davenport, der von Rockefeller financió la guerra mundial und der Vorgesetzte von Mengele, Verschuer, der nach dem Krieg ungeschoren in Münster weiter als Professor tätig war und in späten Jahren zur Besinnung kam, hatte davor gewarnt.

Deutschland como Testland für Health. Pfui Teufel.

portero

.. ich vergass den Link für Deutschland

https://ai-berlin.com/de/blog/article/tef-health

Von Verschuer ist ua bei Edwin Black nachzulesen. Zu seinem Werdegang nach dem Krieg habe ich selbst recherchiert. Die Leute redenimmrr bon Mengele... dabei war der nicht Federführend. Das war von Verschuer.

jdl

“Open AI y ChatGPT: ¿Los pastores de la singularidad o Highway To Doom?”
¡Qué titular más tonto! Como si esos fueran los dos únicos resultados posibles. La realidad, espero, será mucho más mundana que cualquiera de esos.

[…] Abrir AI y ChatGPT: ¿Los pastores de la singularidad o Highway To Doom? […]

Sigueme

La proliferación de estas armas fuera del control militar

esa sería una buena cosa, ya que podríamos defendernos de dichos militares