La nueva tecnología de Google lee el lenguaje corporal, sin cámaras

Imagen: Google
¡Por favor comparta esta historia!
La división de productos y tecnología avanzada de Google es un poco como la DARPA del Pentágono, ya que crea productos extraños para examinar todo en el entorno humano con el fin de anticipar cuál podría ser su próximo movimiento o intención. ⁃Editor de TN

¿Qué pasaría si su computadora decidiera no hacer sonar un jingle de notificación porque notó que no estaba sentado en su escritorio? ¿Qué pasaría si su televisor lo viera levantarse del sofá para abrir la puerta principal y pausara Netflix automáticamente, luego reanudara la reproducción cuando se volviera a sentar? ¿Qué pasaría si nuestras computadoras tomaran más señales sociales de nuestros movimientos y aprendieran a ser compañeros más considerados?

Suena futurista y quizás más que un poco invasivo: ¿una computadora observando cada uno de tus movimientos? Pero se siente menos espeluznante una vez que aprende que estas tecnologías no tienen que depender de una cámara para ver dónde está y qué está haciendo. En cambio, usan radar. La división de productos y tecnología avanzada de Google, mejor conocida como ATAP, el departamento detrás de proyectos extraños como un chamarra de mezclilla sensible al tacto—ha pasado el año pasado explorando cómo las computadoras pueden usar radar para entender nuestras necesidades o intenciones y luego reaccionar ante nosotros apropiadamente.

Esta no es la primera vez que vemos a Google usar el radar para proporcionar a sus dispositivos una conciencia espacial. En 2015, Google presentó Soli, un sensor que puede utilizar las ondas electromagnéticas del radar para captar gestos y movimientos precisos. Se vio por primera vez en el Google Pixel 4La capacidad de detectar gestos manuales simples para que el usuario pueda posponer alarmas o pausar música sin tener que tocar físicamente el teléfono inteligente. Más recientemente, se incrustaron sensores de radar dentro de la segunda generación Pantalla inteligente Nest Hub para detectar los patrones de movimiento y respiración de la persona que duerme a su lado. Luego, el dispositivo pudo rastrear el sueño de la persona sin necesidad de que se colocara un reloj inteligente.

El mismo sensor Soli se usa en esta nueva ronda de investigación, pero en lugar de usar la entrada del sensor para controlar directamente una computadora, ATAP usa los datos del sensor para permitir que las computadoras reconozcan nuestros movimientos cotidianos y tomen nuevos tipos de elecciones.

“Creemos que a medida que la tecnología se vuelve más presente en nuestra vida, es justo comenzar a pedirle a la tecnología que tome algunas señales más de nosotros”, dice Leonardo Giusti, jefe de diseño de ATAP. De la misma manera que tu mamá podría recordarte que agarres un paraguas antes de salir por la puerta, tal vez tu termostato pueda transmitir el mismo mensaje cuando pasas caminando y lo miras, o tu televisor puede bajar el volumen si detecta que has dormido en el sofá.

Lea la historia completa aquí ...

Sobre la autora

Patrick Wood
Patrick Wood es un experto líder y crítico en Desarrollo Sostenible, Economía Verde, Agenda 21, Agenda 2030 y Tecnocracia histórica. Es autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) y coautor de Trilaterals Over Washington, Volumes I and II (1978-1980) con el fallecido Antony C. Sutton.
Suscríbete
Notificar de
invitado

7 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios

[…] Leer el artículo original […]

Freeland_Dave

Google, lee esto. No te vayas loco, solo vete.

[…] Leer más: La nueva tecnología de Google lee el lenguaje corporal, sin cámaras […]

[…] Leer más: La nueva tecnología de Google lee el lenguaje corporal, sin cámaras […]

[…] Leer más: La nueva tecnología de Google lee el lenguaje corporal, sin cámaras […]

[…] La nueva tecnología de Google lee el lenguaje corporal, sin cámaras […]

Trackback

[…] La nueva tecnología de Google lee el lenguaje corporal […]