Jefe de búsqueda de Google: los chatbots de IA pueden dar respuestas 'convincentes pero completamente ficticias'

¡Por favor comparta esta historia!
La capitalización de Google se redujo en $ 100 mil millones después de que su competidor ChatGPT, Bard, no pudiera dar respuestas precisas. ¿Cómo sabrá alguien lo que es verdadero o falso? Si la IA es "principalmente cierta", ¿alguien se preocupará por la información falsa que se consumirá inesperadamente? Google está operando actualmente bajo condiciones de "código rojo" para seguir siendo relevante. ⁃Editor de TN

  • El jefe del motor de búsqueda de Google dijo que los chatbots de IA pueden dar respuestas "convincentes" pero "ficticias".
  • Prabhakar Raghavan le dijo a Welt am Sonntag que está considerando cómo integrar Bard con la búsqueda de Google.
  • Google sintió la "urgencia" de lanzar su chatbot Bard al público, dijo.
  • ChatGPT tiene solo unos meses y ya está causando revuelo en el mundo de los negocios.
  • Los expertos dicen que ChatGPT y la IA relacionada podrían amenazar algunos trabajos, particularmente los de cuello blanco.
  • Insider compiló una lista de 10 trabajos que esta tecnología podría reemplazar, según los expertos.

Desde su lanzamiento en Noviembre del año pasadoChatGPT de OpenAI ha estado acostumbrado a escribir cartas de presentacióncrear un libro para niñosincluso ayudar a los estudiantes a hacer trampa en sus ensayos.

El chatbot puede ser más poderoso de lo que imaginamos. Google descubrió que, en teoría, el motor de búsqueda contrataría al bot como un codificador de nivel de entrada si entrevistó en la empresa.

Empleados de Amazon que probaron ChatGPT dijo que hace un "muy buen trabajo" al responder preguntas de atención al cliente, es "excelente" para hacer documentos de capacitación y es "muy fuerte" para responder consultas sobre la estrategia corporativa.

Sin embargo, los usuarios de ChatGPT también descubrieron que el bot puede generar desinformaciónresponder incorrectamente problemas de codificaciónproducir errores en matemáticas básicas.

Mientras que una Universidad de Oxford 2013 de estudio encontró que el 47% de los trabajos de EE. UU. podrían ser eliminados por la IA en los próximos 20 años, esa predicción parece haber estado fuera de lugar.

Anu Madgavkar, socia del McKinsey Global Institute, dijo que eso se debe a que aún se debe aplicar el juicio humano a estas tecnologías para evitar errores y sesgos, le dijo a Insider.

“Tenemos que pensar en estas cosas como herramientas para mejorar la productividad, en lugar de reemplazos completos”, dijo Madgavkar.

Lea la historia completa aquí ...

Acerca del Editor

Patrick Wood
Patrick Wood es un experto líder y crítico en Desarrollo Sostenible, Economía Verde, Agenda 21, Agenda 2030 y Tecnocracia histórica. Es autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) y coautor de Trilaterals Over Washington, Volumes I and II (1978-1980) con el fallecido Antony C. Sutton.
Suscríbete
Notificar de
invitado

5 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios
Blaise

Ya usé ChatGPT. En serio, si esto es todo lo que tienen los transhumanistas, son realmente una broma. Sí, se puede aprobar si hay un corpus de material estándar, como un examen de grado. Pero pídale, por ejemplo, el mejor generador de doble filtro para su modelo específico de refrigerador (adelante, pruébelo) y le devolverá lo que es esencialmente una palabrería repetitiva que suena bien y no dice nada. Dile que escriba un artículo sobre cómo no funcionan las vacunas contra el covid

En serio, te fuiste fasco-marxista. Esto es todo lo que tienes???

[…] Jefe de búsqueda de Google: los chatbots de IA pueden dar respuestas 'convincentes pero completamente ficticias' […]

Ella

“… los usuarios de ChatGPT también descubrieron que el bot puede generar desinformaciónresponder incorrectamente problemas de codificaciónproducir errores en matemáticas básicas."

Pensé que ese era el objetivo de crear dicho software. Su utilidad radica en transmitir información desgastada, repetible y típicamente falsa para la narrativa de los totalitarios/tecnócratas, específicamente.

Aparentemente, los codificadores de la monstruosidad de la IA son Woketards que se negaron a codificar la verdad o decir algo bueno sobre alguien/cualquier cosa que cuestione su realidad Woke.

dan gilfry

¿¡Al igual que los políticos!? 😁

Trackback

[…] Respuestas completamente ficticias […]