AI Research es un incendio de basurero y Google está reteniendo los fósforos

Imagen vía TheNextWeb
¡Por favor comparta esta historia!
Google inventó el capitalismo de vigilancia y, sin embargo, la mayor parte del mundo no tiene idea de qué es o qué significa. Es el uso de la "inteligencia" de las máquinas para transformar el colectivo en un recurso que puede venderse para obtener grandes ganancias. Esto no es benévolo para la humanidad, sino más bien destructivo para el individualismo, así como para todos los sistemas democráticos de gobierno. ⁃Editor de TN

El esfuerzo científico no es rival para la codicia corporativa.

El mundo de la investigación en IA está en ruinas. Desde los académicos que dan prioridad a los esquemas fáciles de monetizar en lugar de abrir nuevos caminos, hasta la élite de Silicon Valley que utiliza la amenaza de la pérdida del trabajo para fomentar hipótesis favorables a las empresas, el sistema es un desastre.

Y Google merece la mayor parte de la culpa.

Cómo empezó

No hubo aproximadamente 85,000 trabajos de investigación publicado a nivel mundial sobre el tema de AI/ML en el año 2000. Avance rápido hasta 2021 y hubo casi el doble publicado solo en los EE. UU.

Decir que ha habido una explosión en el campo sería quedarse corto. Esta afluencia de investigadores y nuevas ideas ha llevado a que el aprendizaje profundo se convierta en una de las tecnologías más importantes del mundo.

Entre 2014 y 2021, las grandes tecnológicas prácticamente abandonaron sus principios de "primero la web" y "primero el móvil" para adoptar estrategias de "primero la IA".

Ahora, en 2022, los desarrolladores e investigadores de IA tienen una mayor demanda (y reciben más salarios) que casi cualquier otro trabajo en tecnología fuera del C-suite.

Pero este tipo de crecimiento sin restricciones también tiene un lado oscuro. En la lucha por satisfacer la demanda del mercado de productos y servicios basados ​​en el aprendizaje profundo, el campo se ha vuelto tan despiadado e inconstante como los deportes profesionales.

En los últimos años, hemos visto el “GANpadre”, Ian Goodfellow, saltó del barco de Google a Apple, Timnit Gebru y otros son despedidos de Google por opiniones discrepantes sobre la eficacia de la investigación, y un torrente virtual de documentos dudosos de IA logran de alguna manera aprobar la revisión por pares.

La avalancha de talento que llegó a raíz de la explosión del aprendizaje profundo también trajo consigo una avalancha de mala investigación, fraude y codicia corporativa.

Cómo va

Google, más que cualquier otra empresa, es responsable del paradigma moderno de IA. Eso significa que debemos otorgar la máxima puntuación a la gran G por llevar el procesamiento del lenguaje natural y el reconocimiento de imágenes a las masas.

También significa que podemos darle crédito a Google por crear el entorno de investigador-come-investigador que hace que algunos estudiantes universitarios y sus profesores asociados con las grandes tecnologías traten los trabajos de investigación como poco más que un cebo para los capitalistas de riesgo y los cazatalentos corporativos.

En la parte superior, Google mostró su voluntad de contratar a los investigadores más talentosos del mundo. Y también se ha demostrado en numerosas ocasiones que los despedirá en un santiamén si no siguen la línea de la empresa.

La compañía fue noticia en todo el mundo después de despedir a Timnit Gebru, un investigador que había contratado para ayudar a dirigir su división de ética de IA, en diciembre de 2020. Solo unos meses después, despidió a otro miembro del equipo, Margaret Mitchell.

Google sostiene que el trabajo de los investigadores no estuvo a la altura de las especificaciones, pero tanto las mujeres como numerosos simpatizantes afirman que los despidos solo ocurrieron después de que mencionaron preocupaciones éticas sobre la investigación que el jefe de inteligencia artificial de la compañía, Jeff Dean, había firmado.

Apenas ha pasado un año y la historia se repite. Google despidió a otro investigador de IA de renombre mundial, Satrajit Chatterjee, después de que dirigió a un equipo de científicos para desafiar otro artículo que Dean había firmado.

El efecto deslizamiento de tierra

En la parte superior, esto significa que la competencia por trabajos bien remunerados es feroz. Y la búsqueda del próximo investigador o desarrollador talentoso comienza antes que nunca.

Se espera que los estudiantes que trabajan para obtener títulos avanzados en los campos del aprendizaje automático y la IA, que eventualmente quieran trabajar fuera de la academia, sean autores o coautores de trabajos de investigación que demuestren su talento.

Desafortunadamente, la tubería desde la academia hasta la gran tecnología o el mundo de las empresas emergentes lideradas por VC está plagada de artículos de mala calidad escritos por estudiantes cuya única inclinación es escribir algoritmos que pueden monetizarse.

Lea la historia completa aquí ...

Acerca del Editor

Patrick Wood
Patrick Wood es un experto líder y crítico en Desarrollo Sostenible, Economía Verde, Agenda 21, Agenda 2030 y Tecnocracia histórica. Es autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) y coautor de Trilaterals Over Washington, Volumes I and II (1978-1980) con el fallecido Antony C. Sutton.
Suscríbete
Notificar de
invitado

3 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios

[…] Leer más: La investigación de IA es un incendio en un basurero y Google mantiene las cerillas […]

[…] technocracy.news/ai-research-is-a-dumpster-fire-and-googles-holding-the-matches/ […]

[…] AI Research es un basurero incendiado y Google está reteniendo los fósforos […]