Los ingenieros están utilizando la psicología cognitiva para descubrir cómo piensan las IA y hacerlas más responsables.
Los ingenieros de inteligencia artificial tienen un problema: ellos a menudo no lo sé en qué están pensando sus creaciones.
A medida que la inteligencia artificial crece en complejidad y prevalencia, también se vuelve más poderosa. AI ya ha tenido en cuenta las decisiones sobre quien va a la carcel y quien recibe un préstamo. Hay sugerencias que AI debería determinar quién tiene la mejor oportunidad de vivir cuando un auto sin conductor se enfrenta a un choque inevitable.
La definición de IA es resbaladiza y crece aún más, a medida que las nuevas empresas ocultan la palabra de moda sobre lo que están haciendo. Se acepta generalmente como cualquier intento de simular la inteligencia y las habilidades humanas. Un subconjunto que ha despegado son las redes neuronales, sistemas que "aprenden" como lo hacen los humanos a través del entrenamiento, convirtiendo la experiencia en redes de neuronas simuladas. El resultado no es el código, sino una masa ilegible y enredada de millones, en algunos casos miles de millones, de neuronas artificiales, lo que explica por qué aquellos que crean IA modernas pueden estar confundidos sobre cómo resuelven las tareas.
La mayoría de los investigadores están de acuerdo con desafío de entender la IA está presionando. Si no sabemos cómo funciona una mente artificial, ¿cómo podemos determinar sus prejuicios o predecir sus errores?