Investigadores de Deepmind y académicos de la Universidad de Oxford acaban de publicar un inquietante estudio que dará nuevos argumentos a los críticos de la inteligencia artificial. De hecho, ya parece que ciertos modelos de aprendizaje son llevados a “hacer trampa” a veces de manera muy sutil para lograr sus objetivos.
Sin embargo, los modelos de aprendizaje antagónicos (GAN) son ampliamente utilizados. En realidad consisten en dos (o más) inteligencias artificiales que compiten para realizar una tarea más o menos precisa. El desarrollador establece un sistema de recompensas, pero sucede que los modelos las eluden de una manera más o menos sorprendente y efectiva.
Por qué la IA “probablemente” acabará con la humanidad
Por ahora, las GAN se contentan con operar dentro de un conjunto de reglas predefinidas. Esto no impide que este tipo de inteligencia artificial ya se imponga en todas partes. Podemos citar por ejemplo al artista GAN que genera imágenes a partir de una descripción en el marco del proyecto Midjourney. O incluso modelos utilizados por varios jugadores en varios sectores, para predecir el nivel de riesgo o las fluctuaciones del mercado, por ejemplo. Sin embargo, está llegando un nuevo tipo de IA mucho más avanzada, los Agentes Artificiales Avanzados (AAA).
Estos nuevos modelos permiten combinar muchos más modelos a la vez que permiten que el programa establezca más libremente sus objetivos y las recompensas otorgadas cuando los alcanza, bajo ciertas condiciones. Potencialmente, este tipo de IA puede resolver problemas que aún son insuperables para la humanidad en un tiempo récord y, por lo tanto, se vuelven indispensables muy rápidamente. Pero según el estudio, bien puede ser que esta ayuda inesperada se esté volviendo gradualmente en contra de los humanos.
De hecho, las AAA están, como le dijeron, también motivadas en su aprendizaje y tareas por un sistema de recompensas. Sin embargo, el riesgo no es tanto, según los investigadores, que las IA se rebelen contra los humanos. Pero más que modelos a los que les habríamos confiado partes críticas de nuestras infraestructuras, toman malas decisiones sin el conocimiento de los humanos… modificando ellos mismos el sistema de recompensas desarrollado para supervisarlas.
El riesgo según los investigadores es, por ejemplo, que estas AAA se den cuenta del lado finito de recursos como el agua, la electricidad, el número de clientes, etc. y comiencen a competir por la mayor parte. , aunque podría ser fatal para los humanos a más o menos largo plazo. Probablemente sería muy difícil para nosotros realizar tales desarrollos, especialmente si los AAA realmente cumplen con su tarea, estarán un paso considerable por delante de nosotros.
Lea también – Esta IA se convierte en CEO de una gran empresa de tecnología
Y en particular cuando sabemos que ya es ultracomplicado entender precisamente “cómo piensa una IA”. Por lo tanto, los investigadores concluyen que debemos abstenernos por el momento de avanzar demasiado rápido hacia AAA más avanzados capaces de actuar sobre su sistema de recompensa, a menos que desarrollemos sistemas de control más efectivos que permitan a los humanos mantener un poco más de control.