La tasa de desarrollo está aumentando junto con la velocidad de aprendizaje, lo que significa que las nuevas versiones pueden llegar al mercado mucho más rápido. El efecto general se mueve hacia la velocidad de escape para la regulación y el control. Si los reguladores no pueden comprender qué es necesario regular y cómo, son inútiles. Además, los propios programadores de IA admiten que no entienden cómo su IA llega a conclusiones.
AGI no es la mayor amenaza; más bien, el problema es la disposición de los humanos a obedecer un algoritmo sin vida y sin alma. ⁃Editor de TN
El asesor del grupo de trabajo de IA del primer ministro del Reino Unido dijo que los grandes modelos de IA necesitarían regulación y control en los próximos dos años para frenar los principales riesgos existenciales.
El asesor del grupo de trabajo de inteligencia artificial (IA) del primer ministro del Reino Unido dijo que los humanos tienen aproximadamente dos años para controlar y regular la IA antes de que se vuelva demasiado poderosa.
En una entrevista con un medio de comunicación local del Reino Unido, Matt Clifford, quien también se desempeña como presidente de la Agencia de Investigación e Invención Avanzada (ARIA) del gobierno, enfatizó que los sistemas actuales se están volviendo "cada vez más capaces a un ritmo cada vez mayor".
Continuó diciendo que si los funcionarios no consideran la seguridad y las regulaciones ahora, los sistemas se volverán “muy poderosos” en dos años.
“Tenemos dos años para implementar un marco que haga que controlar y regular estos modelos muy grandes sea mucho más posible de lo que es hoy”.
Clifford advirtió que hay "muchos tipos diferentes de riesgos" en lo que respecta a la IA, tanto a corto como a largo plazo, a los que llamó "bastante aterradores".
La entrevista se produjo después de una reciente carta abierta publicado por el Centro para la Seguridad de la IA, firmado por 350 expertos en IA, incluido el CEO de OpenAI, Sam Altman, que dijo que la IA debería tratarse como una amenaza existencial similar a la que plantean las armas nucleares y las pandemias.
“Están hablando de lo que sucede una vez que creamos efectivamente una nueva especie, una especie de inteligencia que es mayor que la de los humanos”.
El asesor del grupo de trabajo de IA dijo que estas amenazas planteadas por la IA podrían ser "muy peligrosas" y podrían "matar a muchos humanos, no a todos los humanos, simplemente desde donde esperaríamos que estuvieran los modelos dentro de dos años".
Según Clifford, el enfoque principal de los reguladores y desarrolladores debe ser comprender cómo controlar los modelos y luego implementar las regulaciones a escala global.
Por ahora, dijo que su mayor temor es la falta de comprensión de por qué los modelos de IA se comportan como lo hacen.
“Las personas que están construyendo los sistemas más capaces admiten libremente que no entienden exactamente cómo [los sistemas de IA] exhiben los comportamientos que tienen”.
Clifford destacó que muchos de los líderes de organizaciones que construyen IA también están de acuerdo en que los modelos poderosos de IA deben someterse a algún tipo de proceso de auditoría y evaluación antes de su implementación.
Actualmente, los reguladores de todo el mundo se esfuerzan por comprender la tecnología y sus ramificaciones, mientras intentan crear regulaciones que protejan a los usuarios y aún permitan la innovación.
El 5 de junio, los funcionarios de la Unión Europea llegaron a sugerir que se ordenara a todos El contenido generado por IA debe etiquetarse como tal para evitar la desinformación.
En el Reino Unido, un miembro de primera fila del opositor Partido Laborista se hizo eco de los sentimientos mencionado en la carta del Centro para la Seguridad de la IA, que dice que la tecnología debe regularse como la medicina y la energía nuclear.
¿Quizás el verdadero motivo para "regular" la IA es que la UE está aterrorizada de que la IA pueda resultar brillante en el suministro de información precisa y refractaria en ser entrenada para mentir, a diferencia de los funcionarios humanos en la UE? ¿Es concebible que la IA (o cualquier software que se comercialice actualmente) pueda convertirse en un amigo del pueblo y enemigo de las dictaduras burocráticas autoritarias?
Estoy observando el comportamiento humano en general, la desigualdad, los trabajadores pobres, el tratamiento del sur global, el tratamiento de los refugiados, la trata de esclavos, la explotación, la explotación minera, la minería en aguas profundas, el robo de tierras, el robo de agua, el imperialismo corporativo, los monocultivos, el petróleo y la Robo de gas, robo de minerales, guerras, desinformación, cambio climático, pérdida de biodiversidad…
Caramba, dices que la IA trae cambios, yo digo, adelante, no puede empeorar.
[…] Asesor del grupo de trabajo de inteligencia artificial del Reino Unido: quedan 2 años para contener, o de lo contrario […]