Asequible tecnología de consumo ha hecho que la vigilancia sea barata y el software de IA comercializado lo ha hecho automático.
Esas dos tendencias se fusionaron esta semana, cuando el fabricante de drones DJI asociadoJune 5 con Axon, la compañía que fabrica armas Taser y cámaras de la policía, para vender aviones no tripulados a los departamentos de policía locales de los Estados Unidos. Ahora, no solo la policía local tiene acceso a drones, sino que las imágenes de esas cámaras voladoras serán analizadas automáticamente por sistemas de inteligencia artificial que no se revelarán al público.
Las imágenes se cargarán o se transmitirán a la nube digital de Axon para cámaras de policía, como el cámaras corporales actualmente vende, donde puede ser analizado por la IA de Axon y utilizado para cualquier cosa, desde monitoreo de multitudes hasta búsqueda y rescate, la compañía escribe En su sitio web.
Esto suena vago, pero AI investigación publicada dos días antes, académicos de la India y el Reino Unido muestran exactamente cómo podría usarse un sistema de drones de este tipo. El documento, titulado "Eye in the Sky", detalla cómo las imágenes de drones podrían usarse para detectar "individuos violentos" en tiempo real.
Para entrenar a la IA, los investigadores volaron un avión no tripulado para tomar imágenes 2,000 de personas que fingen lastimarse mutuamente. Pero dado que los investigadores no utilizaron datos reales y escenificaron cuidadosamente la información que analizó la IA para conocer la diferencia entre la violencia y el movimiento humano normal, no hay garantía de que funcione bien en el mundo real, David Sumpter, autor de Superados en número: explorando los algoritmos que controlan nuestras vidas, escribió en medio.
"Lo que ha hecho el algoritmo es clasificar a las personas con sus manos o piernas en el aire como violentas", escribió Sumpter. Otros, como el halcón de ética de Google Meredith Whittaker, tuiteó que la investigación fue defectuosa y que "la IA se enfrenta a una creciente crisis ética".
Otros investigadores, incluidos Google (pdf) y Facebook, también han realizado una extensa investigación tratando de resolver el mismo problema de rastrear cómo se mueven las personas y qué movimientos podrían indicar que están haciendo.
Pero los investigadores del "Ojo en el cielo" están tratando de asociar ciertas posturas con la intención. Los investigadores no discuten ningún falso positivo para acciones que podrían malinterpretarse como violencia, como peleas de juego, tirar una mosca del hombro de alguien o agarrar a alguien que se está cayendo.
Independientemente de las preguntas que rodean la legitimidad de la IA, The Verge informes que los investigadores obtuvieron la aprobación para probar la tecnología durante dos festivales en India en octubre.
Con $ 160 por un Dron loro como el equipo "Eye in the Sky" utilizado, y unos pocos centavos para la plataforma de inteligencia artificial en la nube de Amazon, cualquier persona con experiencia en codificación podría haber creado un sistema similar. Incluso adolescentes y productores de pepino están construyendo sus propios sistemas de IA.