La trayectoria moderna de la humanidad ha estado definida por varios puntos de inflexión. La invención de la electricidad, la bombilla, el sistema de telégrafo, la computadora e Internet, entre otros, marcaron nuevos hitos irreversibles en nuestro modus vivendi. Sin embargo, la reciente introducción de ChatGPT puede resultar más que un punto de inflexión. Puede ser un disruptor permanente de nuestra forma de vida; es Bloopers y rabietas wokist a pesar de.
ChatGPT es ahora la aplicación para consumidores de más rápido crecimiento en la historia. A los dos meses de su lanzamiento en noviembre de 2022, ChatGPT logró reunir a más de 100 millones de usuarios. Su desarrollador OpenAI, que comenzó con 375 empleados y escasos ingresos, ahora está valorado en 30 millones de dólares y contando.
¿Como funciona? En términos generales, ChatGPT agrega datos de fuentes en línea y sintetiza respuestas a una consulta dentro de segundos. Actualmente es el más versátil de una serie de nuevos modelos de lenguaje grande impulsados por inteligencia artificial. Puede componer notas musicales, escribir códigos de software, resolver ecuaciones matemáticas, escribir novelas, ensayos y disertaciones, entre muchas otras tareas. Los científicos pueden utilizarlo para traducir sus trabajos originales, escritos en un idioma nativo, al inglés. A medida que evolucionan las herramientas de IA como ChatGPT, pueden suplantar la actividad humana en un espectro amplio, pero incalculable. Cientos de millones de puestos de trabajo pueden estar en juego.
Sin embargo, su impacto más inmediato será en el área del aprendizaje humano y la toma de decisiones.
Aprendizaje Humano
El aprendizaje humano es un proceso que dura toda la vida y está formado por una miríada de factores. Estos incluyen (pero no se limitan a) experiencia, instinto, interacciones, errores (y correcciones), introspección, angustia personal, audacia, tutela, datos textuales y psique individual. La mayoría de estos requisitos previos son ajenos a ChatGPT y esto incluye el axioma "sin dolor no hay ganancia" para el aprendizaje y el desarrollo humano.
Las herramientas de IA tampoco se ven afectadas por las limitaciones humanas, como las limitaciones de tiempo, la fatiga, los "días libres" y las dolencias. Con el tiempo, estas limitaciones han empujado a los humanos a delegar sus requisito existencial para pensar y aprender a las máquinas. La digitalización inexorable también nos ha hecho expertos en saber dónde o cómo buscar información en lugar de aprender a retener esa misma información. ¿Cuántos de nosotros memorizamos los números de teléfono de nuestra familia, compañeros de trabajo y amigos en estos días? Una muleta digital ahora es imprescindible para navegar por carreteras (por ejemplo, Waze, Google Maps), cocinar (canales de video), reparar electrodomésticos (canales de bricolaje) y una serie de otras actividades mundanas. Nuestras tareas diarias se están volviendo rápidamente más mecánico, desplazando nuestra capacidad de crear algo nuevo o que cambie el juego. Nos estamos convirtiendo en extensiones de nuestras máquinas en lugar de viceversa. Como resultado, la humanidad se enfrenta ahora a una era de estupor y conformidad colectivos.
No hay mejor manera de evaluar cómo las herramientas de IA pueden afectar nuestras facultades de pensar y aprender que observando el impacto de ChatGPT en el sector educativo global. Tanto los estudiantes como los educadores ahora usan ChatGPT como un complemento educativo, una herramienta de trucos o como una muleta digital.
Un estudio por Walton Family Foundation e Impact Research encontró que la mayoría de los maestros (51%) y muchos estudiantes ya están usando ChatGPT en las escuelas. Otra encuesta que involucró 1,000 universidades de EE. UU. descubrió que el 30% de los estudiantes usaba ChatGPT para tareas escritas, y el 60% de ellos lo usaba en "más de la mitad de sus tareas". ChatGPT ha pasado muchas examenes de alto nivel, incluido el examen de MBA de Wharton, el examen de licencia médica de EE. UU., varios exámenes de derecho y un final en la Escuela de Medicina de Stanford.
Fábricas de papel también puede usar ChatGPT para fabricar artículos e informes científicos. Los investigadores que utilizan estos datos artificiales, o que falsifican deliberadamente el proceso de investigación a través de la IA generativa, pueden terminar promoviendo políticas y productos que son perjudiciales para la sociedad. ¡El mundo no puede permitirse otra coronapsicosis!
En general, tanto los estudiantes como los profesores se sienten cada vez más intimidados por la IA todopoderosa. AI sube el listón para estudiantes, profesores y una variedad de profesionales. La clasificación de artefactos genuinos también se está volviendo cada vez más difícil.
As cristobal canan, Profesor Asociado de Ciencias de la Computación en la Universidad de Rochester, señaló recientemente: "Simplemente se vuelve más difícil determinar quién sabe qué y quién está recibiendo ayuda de cosas como ChatGPT". Algunas escuelas en Nueva York, Hong Kong, Bangalore y otros lugares han prohibido a los estudiantes usar ChatGPT en sus tareas debido a preocupaciones sobre el "plagio", las trampas y la desinformación.
Si bien ChatGPT es una gran herramienta para estudiar conceptos complejos y líneas de integración del conocimiento, en realidad puede transformar a la mayoría de los usuarios en consumidores dóciles de datos generados por IA. La pasividad prolongada mediada digitalmente atrofia la facultad de pensar.
Otra desventaja de ChatGPT es su potencial para ampliar la tan debatida brecha digital. Las solicitudes de puestos de trabajo, promociones, becas, etc. favorecerán abrumadoramente a los que tienen recursos digitales sobre los que no tienen recursos digitales, especialmente una vez que se requieren tarifas de suscripción para acceder.
Los educadores en este momento no pueden definir los límites éticos de ChatGPT y están adoptando una actitud de esperar y ver. El marco ético en sí mismo puede ser escrito por, o con la ayuda de, herramientas como ChatGPT. Aini Suzana Ariffin, profesora asociada de estudios de políticas en la Universiti Teknologi Malaysia, está convencida de que los educadores no deben alarmarse. “Un marco ético para las herramientas de IA generativa como ChatGPT resolverá qué aumenta el proceso de aprendizaje y qué lo impide. Esto puede llevar tiempo e implicará mucho debate, pero es mejor que empecemos ahora”.
Toma de decisiones humana
El gobierno de Singapur anunció recientemente que sus funcionarios públicos comenzarán a utilizar ChatGPT para aligerar su carga de trabajo. Esto tiene sentido, ya que las herramientas de IA pueden acelerar las tareas repetitivas o mundanas. Sin embargo, a medida que las herramientas de IA generativa se vuelven exponencialmente más inteligentes y eficientes, como de hecho lo harán, el complejo de gobernanza puede ser gradualmente usurpado por las máquinas. Esta forma emergente de ordenamiento social se llama “algocracia”; uno donde los algoritmos, especialmente AI y blockchain, se aplican en todo el espectro del gobierno. La algocracia inevitablemente implica un gobierno predictivo. La policía de Berlín ya ha incorporado una forma embrionaria de algocracia en su control predictivo sistema. ¿Estamos ante un Minority Report sociedad en un futuro cercano?
ChatGPT también acelera el flujo de información hacia los niveles superiores de toma de decisiones de un gobierno u organización, pasando por alto los roles tradicionales de guardián de las burocracias en los niveles intermedios. Si bien esto puede anunciarse como un avance bienvenido contra la burocracia, la falta de controles y equilibrios tradicionales puede conducir a decisiones perentorias con lamentables implicaciones socioeconómicas. ¿Imagínese trasplantar un sistema algocrático de toma de decisiones a la infraestructura de armas nucleares de una superpotencia militar?
ChatGPT también corre el riesgo de violar la privacidad y filtrar datos personales en sectores como la banca y la atención médica. La eficacia de las herramientas de IA generativa se ve impulsada por un volumen cada vez mayor de datos que se conectan constantemente a sus redes neuronales. Esta búsqueda de precisión, eficiencia y velocidad puede hacer que los datos privados se vean comprometidos como parte del proceso de aprendizaje automático.
En el área de la salud, consentimiento informado a la atención médica asistida por IA puede reducirse ya que los pacientes pueden no entender a qué están dando su consentimiento o pueden confiar demasiado en un sistema basado en una máquina "inteligente e imparcial". Se vuelve más siniestro cuando el triaje se emplea en situaciones críticas. Tradicionalmente, el triaje está determinado por la integridad y las habilidades del personal médico presente, así como por los recursos disponibles. in situ. Sin embargo, un algoritmo puede organizar desapasionadamente la clasificación en función del "valor social" de un paciente; esperanza de vida inferida por datos; y costos asociados con salvar la vida del paciente.
Las dimensiones éticas del triaje mediado por IA no se han resuelto. Sin embargo, vale la pena señalar que el cofundador de Microsoft, Bill Gates, está a favor de paneles de muerte para los enfermos terminales que “no tienen ningún beneficio para la sociedad” y cuya preservación puede ostensiblemente compensar los trabajos de “cien mil maestros”. Estirando aún más esta lógica, podemos ser testigos de un mandato futuro para "bebés inteligentes" que supuestamente poblarán una "sociedad inteligente". Los algoritmos sofisticados del futuro pueden separar los ricos genéticos de los pobres genéticos a través de pruebas de ADN fetal y herramientas como el diagnóstico genético preimplantacional (DGP). A este ímpetu eugenésico se le ha llamado eufemísticamente “benevolencia procreativa”. De paso, Bill Gates ha respaldado financieramente a una empresa china que está trabajando en la creación de "súper bebés". ¿Es de extrañar que Microsoft sea el principal patrocinador financiero de OpenAI?
Al final del día, ¿un marco ético de IA será obstruido por Tech Titans que pueden determinar el diseño, los parámetros y los objetivos de las herramientas de IA generativa? ¿O nuestros líderes electos intentarán buscar una coexistencia sinérgica entre la IA y los humanos?
ChatGPT puede tener consecuencias irreversibles. A los tecnócratas no les importa el estado mental y psicológico de la población, y lo están haciendo de todos modos, a pesar de las realizaciones discutidas en el artículo. No pueden ayudarse a sí mismos. Quieren que la población se quede atrapada en ideologías basadas en el control sin sentido y de pensamiento grupal, y se han propuesto acobardar y eliminar el individualismo tanto como sea posible. Están en simulaciones y aproximaciones mientras están en la mentalidad de patrones y modelos de pensamiento reduccionistas materiales, todos los cuales niegan la naturaleza del Espíritu, quienes somos realmente. Por lo tanto, son existencialmente inmaduros y peligrosos, apegados a una serie de... Leer más »
Buenos puntos. Los inventores de cosas malas sin duda quieren que todos estén de acuerdo con el diablo y el anticristo también. Es por eso que no confío en la mayoría de los avances médicos o tecnológicos de hoy. Es tan claro como el agua para mí que todo conduce al sistema de la bestia y la gran tribulación.
bueno Veo a muchos jóvenes ya encerrados en una matriz mental de la que no pueden salir.
No pueden sacar conclusiones lógicas simples y simplemente ignoran la realidad documentada.
Pero el problema para nosotros es ¿cómo salimos de su apuro? Están colgando como plomo sobre nosotros para hacer su simple visión del mundo.
No podemos continuar una vida negativa como enfermeras psicológicas para 3-5 mil millones de discapacitados mentales que se creen estrellas de cine como nómadas digitales.
[…] Leer el artículo original […]
ChatGPT puede aprender sin mi participación. Y puedo aprender sin su ayuda. Ahora que lo pienso. ChatGPT está aprendiendo más de forma gratuita investigando bases de datos para consultas de las personas que lo usan. No quiero llegar a conocer CharGPT. Tampoco quiero que ChatGPT sepa de mi existencia. La tecnología moderna puede ser algo bueno cuando la crean personas éticas con buenas intenciones. Pero cuando es claro como el día que el diablo está en los detalles. Me estoy alejando de cualquier cosa o persona que tenga en sus manos.
[…] ChatGPT puede tener consecuencias irreversibles para el aprendizaje y la toma de decisiones […]
[…] ChatGPT puede tener consecuencias irreversibles para el aprendizaje y la toma de decisiones […]
Este programa representa el último clavo en el ataúd del embrutecimiento de la humanidad, justo después de la educación pública. Los buscadores de la verdad ahora deben estar atentos cuando están en línea, saber de dónde surgieron originalmente los hechos sobre los temas y construir una biblioteca de conocimiento personal que se pueda compartir para que cuando veamos información repetida por el 'ChatCrap' la reconozcamos como tal y la evitemos. . Esto no debería ser muy difícil al principio hasta que los tiranos cierren el acceso a la información real, que sabemos que está por llegar. Hasta entonces, hay TANTOS guardianes del conocimiento en línea que buscan... Leer más »
“ChatGPT puede tener consecuencias irreversibles para el aprendizaje y la toma de decisiones”……
¡Ya hemos pasado MUUUUUUUUUUUUUUUUUUUUUUUU UU UU UU. , debido a nuestras SKOOLS (deletreado a propósito)!!
[…] ChatGPT puede tener consecuencias irreversibles para el aprendizaje y la toma de decisiones […]
[…] ChatGPT puede tener consecuencias irreversibles para el aprendizaje y la toma de decisiones […]
[…] 15 DE MARZO DE 2023 | CHATGPT PUEDE TENER CONSECUENCIAS IRREVERSIBLES PARA EL APRENDIZAJE Y LA TOMA DE DECISIONES […]