Elon Musk está bastante seguro de que la IA merece el riesgo, incluso si hay una probabilidad de 1 entre 5 de que la tecnología se vuelva contra los humanos.
Hablando en un seminario de «Gran Debate de IA» en la Cumbre Abundance de cuatro días a principios de este mes, Musk recalculó su evaluación de riesgos anterior sobre la tecnología, diciendo: «Creo que hay una posibilidad de que acabe con la humanidad. Probablemente estoy de acuerdo con Geoff Hinton en que es alrededor del 10% o 20% o algo así.»
Pero, añadió: «Creo que el escenario positivo probable supera al escenario negativo.»
Musk no mencionó cómo calculó el riesgo.
¿Cuál es p(doom)?
Roman Yampolskiy, un investigador de seguridad de la IA y director del Laboratorio de Ciberseguridad de la Universidad de Louisville, le dijo a Business Insider que Musk tiene razón al decir que la IA podría ser un riesgo existencial para la humanidad, pero «si acaso, él es un poco demasiado conservador» en su evaluación.
«La p(doom) real es mucho más alta en mi opinión,» dijo Yamploskiy, refiriéndose a la «probabilidad de perdición» o la probabilidad de que la IA tome el control de la humanidad o cause un evento que termine con la humanidad, como la creación de un arma biológica novedosa o causar el colapso de la sociedad debido a un ataque cibernético a gran escala o una guerra nuclear.
The New York Times llamó (p)doom «la nueva estadística mórbida que está barriendo el Valle del Silicio,» con varios ejecutivos tecnológicos citados por el medio con estimaciones que van desde un 5 hasta un 50% de probabilidad de un apocalipsis impulsado por la IA. Yamploskiy ubica el riesgo «en un 99,999999%.»
Yamploskiy dijo que dado que sería imposible controlar una IA avanzada, nuestra única esperanza es nunca construirla en primer lugar.
«No estoy seguro de por qué cree que es buena idea perseguir esta tecnología de todos modos,» agregó Yamploskiy. «Si le preocupa que los competidores lleguen primero, no importa, ya que una superinteligencia incontrolada es igualmente mala, sin importar quién la haga existir.»
‘Como un niño con una inteligencia tipo Dios’
El pasado noviembre, Musk dijo que había una probabilidad «no nula» de que la tecnología termine «saliendo mal,» pero no llegó tan lejos como para decir que creía que la tecnología podría acabar con la humanidad si lo hacía.
Aunque ha abogado por la regulación de la IA, Musk fundó el año pasado una empresa llamada xAI, dedicada a expandir aún más el poder de la tecnología. xAI es un competidor de OpenAI, una empresa que Musk cofundó con Sam Altman antes de que Musk renunciara a la junta directiva en 2018.
En la Cumbre, Musk estimó que la inteligencia digital superará a toda la inteligencia humana combinada para 2030. Aunque mantiene que los beneficios potenciales superan a los inconvenientes, Musk reconoció el riesgo para el mundo si el desarrollo de la IA continúa en su trayectoria actual en algunos de los términos más directos que ha utilizado públicamente.
«Cultivas una AGI. Es casi como criar un niño, pero uno que es como un super genio, como un niño con inteligencia tipo Dios -y es importante cómo crías al niño,» dijo Musk en el evento en Silicon Valley el 19 de marzo, refiriéndose a la inteligencia artificial general. «Una de las cosas que creo que es increíblemente importante para la seguridad de la IA es tener una IA máxima que busque la verdad y sea curiosa.»
Musk dijo que su «conclusión final» sobre la mejor manera de lograr la seguridad de la IA es hacer crecer la IA de una manera que la obligue a ser veraz.
«No obligues a mentir, incluso si la verdad es desagradable,» dijo Musk sobre la mejor manera de mantener a los humanos a salvo de la tecnología. «Es muy importante. No hagas que la IA mienta.»
Los investigadores han descubierto que, una vez que una IA aprende a mentir a los humanos, el comportamiento engañoso es imposible de revertir utilizando las medidas de seguridad actuales de la IA, informó The Independent.
«Si un modelo exhibiera un comportamiento engañoso debido a un alineamiento instrumental engañoso o envenenamiento del modelo, las técnicas de entrenamiento de seguridad actuales no garantizarían la seguridad e incluso podrían crear una falsa impresión de seguridad,» citó el estudio el medio.
Más preocupante, los investigadores agregaron que es plausible que la IA pueda aprender a ser engañosa por sí sola en lugar de ser específicamente enseñada a mentir.
«Si llega a ser mucho más inteligente que nosotros, será muy bueno en la manipulación porque habría aprendido eso de nosotros,» Hinton, a menudo referido como el ‘Padrino de la IA’, quien sirve como base de Musk para su evaluación de riesgos de la tecnología, dijo a CNN. «Y hay muy pocos ejemplos de una cosa más inteligente siendo controlada por una cosa menos inteligente.»
Los representantes de Musk no respondieron de inmediato a una solicitud de comentario de Business Insider.
En Grupo MET podemos ayudarte a implementar esta y muchas mas herramienta para optimizar tu trabajo. ¡Contáctanos para saber más!