Este es un software para salvar vidas. La nueva tecnología de inteligencia artificial de "detección proactiva" de Facebook escaneará todas las publicaciones en busca de patrones de pensamientos suicidas y, cuando sea necesario, enviará recursos de salud mental al usuario en riesgo o sus amigos, o se pondrá en contacto con los socorristas locales. Al usar IA para señalar publicaciones preocupantes a moderadores humanos en lugar de esperar los informes de los usuarios, Facebook puede reducir el tiempo que se tarda en enviar ayuda.
Facebook previamente probado usando AI para detectar publicaciones problemáticas y Opciones de informes de suicidio más prominentes a amigos en los Estados Unidos. Ahora Facebook buscará todo tipo de contenido. en todo el mundo con esta IA, excepto en la Unión Europea, donde Reglamento General de Protección de Datos Las leyes de privacidad sobre la creación de perfiles de usuarios basadas en información confidencial complican el uso de esta tecnología.
Facebook también usará IA para priorizar informes de usuarios particularmente riesgosos o urgentes para que sean atendidos más rápidamente por los moderadores y herramientas para mostrar al instante los recursos del idioma local y la información de contacto del personal de primera respuesta. También está dedicando más moderadores a la prevención del suicidio, capacitándolos para lidiar con los casos 24 / 7, y ahora tiene socios locales 80 como Save.org, National Suicide Prevention Lifeline y Forefront desde los cuales proporcionar recursos a usuarios en riesgo y sus redes. .
"Se trata de ahorrar minutos en cada paso del proceso, especialmente en Facebook Live", dice el vicepresidente de gestión de productos, Guy Rosen. Durante el último mes de pruebas, Facebook ha iniciado más de 100 "controles de bienestar" con los primeros en responder que visitan a los usuarios afectados. "Ha habido casos en los que ha llegado el personal de emergencia y la persona todavía está transmitiendo".
La idea de que Facebook escanee de forma proactiva el contenido de las publicaciones de las personas podría desencadenar algunos temores distópicos sobre cómo se podría aplicar la tecnología. Facebook no tenía respuestas sobre cómo evitaría buscar disidencia política o delitos menores, y Rosen simplemente dijo "tenemos una oportunidad de ayudar aquí, así que vamos a invertir en eso". Sin duda, hay aspectos beneficiosos masivos sobre el tecnología, pero es otro espacio donde tenemos pocas opciones, pero esperar que Facebook no vaya demasiado lejos.
El CEO de Facebook, Mark Zuckerberg, elogió la actualización del producto en una publicación de hoy, escribiendo eso "En el futuro, AI podrá comprender más los sutiles matices del lenguaje y también podrá identificar diferentes problemas más allá del suicidio, incluida la detección rápida de más tipos de acoso y odio".
Desafortunadamente, después de que TechCrunch preguntó si había una forma para que los usuarios optaran por no participar, un portavoz de Facebook respondió que los usuarios no pueden optar por no recibir sus publicaciones. Señalaron que la función está diseñada para mejorar la seguridad del usuario y que los recursos de soporte ofrecidos por Facebook se pueden descartar rápidamente si un usuario no quiere verlos].
Facebook entrenó a la IA al encontrar patrones en las palabras y las imágenes utilizadas en publicaciones que se informaron manualmente sobre el riesgo de suicidio en el pasado. También busca comentarios como "¿estás bien?" Y "¿Necesitas ayuda?"