{"id":135065,"date":"2025-09-28T12:17:35","date_gmt":"2025-09-28T17:17:35","guid":{"rendered":"https:\/\/formalprision.com\/?p=135065"},"modified":"2025-09-29T10:43:12","modified_gmt":"2025-09-29T15:43:12","slug":"premios-nobel-y-cientificos-piden-poner-limites-a-la-ia","status":"publish","type":"post","link":"https:\/\/formalprision.com\/?p=135065","title":{"rendered":"Premios Nobel y cient\u00edficos piden poner l\u00edmites a la IA"},"content":{"rendered":"\n<p>Premios Nobel, expertos en inteligencia artificial (IA) y cient\u00edficos pidieron la creaci\u00f3n una instituci\u00f3n internacional para poner l\u00edmites a los riesgos de la IA, antes de las reuniones de alto nivel de la Asamblea General de las Naciones Unidas que se celebra esta semana en Nueva York.<\/p>\n\n\n\n<p>Esta iniciativa, firmada por m\u00e1s de doscientas personas y m\u00e1s de setenta organizaciones, insta a los gobiernos a establecer un acuerdo internacional vinculante sobre las \u201cl\u00edneas rojas\u201d para la inteligencia artificial.<\/p>\n\n\n\n<p>El llamamiento global para establecer l\u00edmites en la IA acaba de ser anunciado por Mar\u00eda Ressa, premio Nobel de la Paz, en la reuni\u00f3n de alto nivel de la ONU que conmemora el 80\u00ba aniversario de la organizaci\u00f3n. Instamos a los gobiernos de todo el mundo a alcanzar un acuerdo internacional crucial sobre los l\u00edmites que la IA nunca debe cruzar\u201d, anunci\u00f3 en una rueda de prensa virtual Charbel Segerie, director ejecutivo del Centro Franc\u00e9s para la Seguridad de la IA.<\/p>\n\n\n\n<p>El experto detall\u00f3 que el objetivo no es reaccionar tras un incidente grave y castigar las infracciones posteriormente, sino prevenir riesgos a gran escala, potencialmente irreversibles, antes de que ocurran.<\/p>\n\n\n\n<p>El fin de esta coalici\u00f3n de expertos es que se exija a los desarrolladores que demuestren la seguridad de sus IA como condici\u00f3n para acceder al mercado, al igual que se hace en la creaci\u00f3n de medicamentos y en las centrales nucleares.<\/p>\n\n\n\n<p>Las grandes tecnol\u00f3gicas, como Meta, Google u OpenAI, est\u00e1n poniendo toda la carne en el asador y enormes cantidades de dinero para llegar a la \u201csuperinteligencia\u201d o inteligencia artificial general (IAG, en ingl\u00e9s AGI), un hipot\u00e9tico sistema de IA que supera las capacidades del cerebro humano y que por ahora solo existe en la ciencia ficci\u00f3n, pero que, seg\u00fan los expertos, podr\u00eda llegar en la pr\u00f3xima d\u00e9cada.<\/p>\n\n\n\n<p>Stuart Russell, profesor de la Universidad de Berkeley, destac\u00f3 que la IA est\u00e1 dise\u00f1ada para imitar muy bien a los humanos.<\/p>\n\n\n\n<p>El comportamiento humano est\u00e1 dise\u00f1ado para alcanzar objetivos: persuadir, impresionar, sobrevivir, seducir, vender, etc. Inevitablemente, los sistemas de IA adquieren y persiguen estos objetivos por cuenta propia. Esta es una consecuencia inevitable de su desarrollo. Son intr\u00ednsecamente inseguros\u201d, subray\u00f3 el tambi\u00e9n director del Centro para la IA Compatible con los Humanos.<\/p>\n\n\n\n<p>Lo que m\u00e1s preocupa a Russell es que los desarrolladores admiten que no tienen ning\u00fan plan para controlar los sistemas de IA y que, por el momento, los gobiernos no tienen ning\u00fan plan para exigirles que lo hagan.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Premios Nobel, expertos en inteligencia artificial (IA) y cient\u00edficos pidieron la creaci\u00f3n una instituci\u00f3n internacional para poner l\u00edmites a los riesgos de la IA, antes de las reuniones de alto<\/p>\n","protected":false},"author":2,"featured_media":135067,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[23],"tags":[],"class_list":["post-135065","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-del-mundo"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/formalprision.com\/wp-content\/uploads\/2025\/09\/premios.jpg","jetpack_sharing_enabled":true,"jetpack_shortlink":"https:\/\/wp.me\/p6id8p-z8t","_links":{"self":[{"href":"https:\/\/formalprision.com\/index.php?rest_route=\/wp\/v2\/posts\/135065","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/formalprision.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/formalprision.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/formalprision.com\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/formalprision.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=135065"}],"version-history":[{"count":1,"href":"https:\/\/formalprision.com\/index.php?rest_route=\/wp\/v2\/posts\/135065\/revisions"}],"predecessor-version":[{"id":135066,"href":"https:\/\/formalprision.com\/index.php?rest_route=\/wp\/v2\/posts\/135065\/revisions\/135066"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/formalprision.com\/index.php?rest_route=\/wp\/v2\/media\/135067"}],"wp:attachment":[{"href":"https:\/\/formalprision.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=135065"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/formalprision.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=135065"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/formalprision.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=135065"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}