Premios Nobel y científicos piden poner límites a la IA

Premios Nobel, expertos en inteligencia artificial (IA) y científicos pidieron la creación una institución internacional para poner límites a los riesgos de la IA, antes de las reuniones de alto nivel de la Asamblea General de las Naciones Unidas que se celebra esta semana en Nueva York.

Esta iniciativa, firmada por más de doscientas personas y más de setenta organizaciones, insta a los gobiernos a establecer un acuerdo internacional vinculante sobre las “líneas rojas” para la inteligencia artificial.

El llamamiento global para establecer límites en la IA acaba de ser anunciado por María Ressa, premio Nobel de la Paz, en la reunión de alto nivel de la ONU que conmemora el 80º aniversario de la organización. Instamos a los gobiernos de todo el mundo a alcanzar un acuerdo internacional crucial sobre los límites que la IA nunca debe cruzar”, anunció en una rueda de prensa virtual Charbel Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA.

El experto detalló que el objetivo no es reaccionar tras un incidente grave y castigar las infracciones posteriormente, sino prevenir riesgos a gran escala, potencialmente irreversibles, antes de que ocurran.

El fin de esta coalición de expertos es que se exija a los desarrolladores que demuestren la seguridad de sus IA como condición para acceder al mercado, al igual que se hace en la creación de medicamentos y en las centrales nucleares.

Las grandes tecnológicas, como Meta, Google u OpenAI, están poniendo toda la carne en el asador y enormes cantidades de dinero para llegar a la “superinteligencia” o inteligencia artificial general (IAG, en inglés AGI), un hipotético sistema de IA que supera las capacidades del cerebro humano y que por ahora solo existe en la ciencia ficción, pero que, según los expertos, podría llegar en la próxima década.

Stuart Russell, profesor de la Universidad de Berkeley, destacó que la IA está diseñada para imitar muy bien a los humanos.

El comportamiento humano está diseñado para alcanzar objetivos: persuadir, impresionar, sobrevivir, seducir, vender, etc. Inevitablemente, los sistemas de IA adquieren y persiguen estos objetivos por cuenta propia. Esta es una consecuencia inevitable de su desarrollo. Son intrínsecamente inseguros”, subrayó el también director del Centro para la IA Compatible con los Humanos.

Lo que más preocupa a Russell es que los desarrolladores admiten que no tienen ningún plan para controlar los sistemas de IA y que, por el momento, los gobiernos no tienen ningún plan para exigirles que lo hagan.