Asesor del grupo de trabajo de IA del Reino Unido: quedan 2 años para contener, o de lo contrario

Wikimedia Commons, mikemacmarketing
¡Por favor comparta esta historia!
Hay dos problemas que enfrenta la humanidad, descritos por las palabras. "profundo" y "ancho". La adopción generalizada de los modelos actuales significa que los modelos actuales están en todas partes. Mientras tanto, a medida que se profundizan las capacidades, esas mejoras se implementan de inmediato y sin inconvenientes en todas las instalaciones del mundo. Open AI se ha comprometido a retrasar los nuevos lanzamientos, pero otras empresas de IA están avanzando a toda velocidad.

La tasa de desarrollo está aumentando junto con la velocidad de aprendizaje, lo que significa que las nuevas versiones pueden llegar al mercado mucho más rápido. El efecto general se mueve hacia la velocidad de escape para la regulación y el control. Si los reguladores no pueden comprender qué es necesario regular y cómo, son inútiles. Además, los propios programadores de IA admiten que no entienden cómo su IA llega a conclusiones.

AGI no es la mayor amenaza; más bien, el problema es la disposición de los humanos a obedecer un algoritmo sin vida y sin alma. ⁃Editor de TN

El asesor del grupo de trabajo de IA del primer ministro del Reino Unido dijo que los grandes modelos de IA necesitarían regulación y control en los próximos dos años para frenar los principales riesgos existenciales.

El asesor del grupo de trabajo de inteligencia artificial (IA) del primer ministro del Reino Unido dijo que los humanos tienen aproximadamente dos años para controlar y regular la IA antes de que se vuelva demasiado poderosa.

En una entrevista con un medio de comunicación local del Reino Unido, Matt Clifford, quien también se desempeña como presidente de la Agencia de Investigación e Invención Avanzada (ARIA) del gobierno, enfatizó que los sistemas actuales se están volviendo "cada vez más capaces a un ritmo cada vez mayor".

Continuó diciendo que si los funcionarios no consideran la seguridad y las regulaciones ahora, los sistemas se volverán “muy poderosos” en dos años.

“Tenemos dos años para implementar un marco que haga que controlar y regular estos modelos muy grandes sea mucho más posible de lo que es hoy”.

Clifford advirtió que hay "muchos tipos diferentes de riesgos" en lo que respecta a la IA, tanto a corto como a largo plazo, a los que llamó "bastante aterradores".

La entrevista se produjo después de una reciente carta abierta publicado por el Centro para la Seguridad de la IA, firmado por 350 expertos en IA, incluido el CEO de OpenAI, Sam Altman, que dijo que la IA debería tratarse como una amenaza existencial similar a la que plantean las armas nucleares y las pandemias.

“Están hablando de lo que sucede una vez que creamos efectivamente una nueva especie, una especie de inteligencia que es mayor que la de los humanos”.

El asesor del grupo de trabajo de IA dijo que estas amenazas planteadas por la IA podrían ser "muy peligrosas" y podrían "matar a muchos humanos, no a todos los humanos, simplemente desde donde esperaríamos que estuvieran los modelos dentro de dos años".

Según Clifford, el enfoque principal de los reguladores y desarrolladores debe ser comprender cómo controlar los modelos y luego implementar las regulaciones a escala global.

Por ahora, dijo que su mayor temor es la falta de comprensión de por qué los modelos de IA se comportan como lo hacen.

“Las personas que están construyendo los sistemas más capaces admiten libremente que no entienden exactamente cómo [los sistemas de IA] exhiben los comportamientos que tienen”.

Clifford destacó que muchos de los líderes de organizaciones que construyen IA también están de acuerdo en que los modelos poderosos de IA deben someterse a algún tipo de proceso de auditoría y evaluación antes de su implementación.

Actualmente, los reguladores de todo el mundo se esfuerzan por comprender la tecnología y sus ramificaciones, mientras intentan crear regulaciones que protejan a los usuarios y aún permitan la innovación.

El 5 de junio, los funcionarios de la Unión Europea llegaron a sugerir que se ordenara a todos El contenido generado por IA debe etiquetarse como tal para evitar la desinformación.

En el Reino Unido, un miembro de primera fila del opositor Partido Laborista se hizo eco de los sentimientos mencionado en la carta del Centro para la Seguridad de la IA, que dice que la tecnología debe regularse como la medicina y la energía nuclear.

Lea la historia completa aquí ...

Acerca del Editor

Patrick Wood
Patrick Wood es un experto líder y crítico en Desarrollo Sostenible, Economía Verde, Agenda 21, Agenda 2030 y Tecnocracia histórica. Es autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) y coautor de Trilaterals Over Washington, Volumes I and II (1978-1980) con el fallecido Antony C. Sutton.
Suscríbete
Notificar de
invitado

3 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Phil Evans

¿Quizás el verdadero motivo para "regular" la IA es que la UE está aterrorizada de que la IA pueda resultar brillante en el suministro de información precisa y refractaria en ser entrenada para mentir, a diferencia de los funcionarios humanos en la UE? ¿Es concebible que la IA (o cualquier software que se comercialice actualmente) pueda convertirse en un amigo del pueblo y enemigo de las dictaduras burocráticas autoritarias?

Lexomm

Estoy observando el comportamiento humano en general, la desigualdad, los trabajadores pobres, el tratamiento del sur global, el tratamiento de los refugiados, la trata de esclavos, la explotación, la explotación minera, la minería en aguas profundas, el robo de tierras, el robo de agua, el imperialismo corporativo, los monocultivos, el petróleo y la Robo de gas, robo de minerales, guerras, desinformación, cambio climático, pérdida de biodiversidad…

Caramba, dices que la IA trae cambios, yo digo, adelante, no puede empeorar.

[…] Asesor del grupo de trabajo de inteligencia artificial del Reino Unido: quedan 2 años para contener, o de lo contrario […]