sábado, 1 de abril de 2023

La Inteligencia artificial aterroriza, ni sus creadores podrían controlarla

 

La Inteligencia artificial aterroriza, ni sus creadores podrían controlarla

 

Donald Trump forcejeando con la policía, un deep fakes que se viralizó/Twitter @EliotHiggins- periodista británico y Fundador y director creativo de Bellingcat.

El fascinante y todavía inexplorado mundo de la Inteligencia Artificial se ha convertido de pronto en una amenaza. La falta de control y la ausencia de protocolos de seguridad aterroriza a muchas de las mentes que lo idearon, promovieron y apostaron por su expansión. Un grupo de expertos y ejecutivos de la industria tecnológica pidieron frenar por seis meses en el entrenamiento de los poderosos sistemas de IA, argumentando que se trata de una potencial amenaza para la humanidad.

¿Cómo es eso posible? Unos 1.000 expertos en esa tecnología, incluidos el magnate Elon Musk, fundador de SpaceX, Neuralink y OpenAI, entre otras empresas; el cofundador de Apple, Steve Wozniak. Y el director ejecutivo de la firma Stability AI, Emad Mostaque, además de investigadores de la firma DeepMind pidieron se frene el avance de la IA en una carta abierta.

Aseguran que los laboratorios que trabajan con esta tecnología están en «una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie. Ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable».

Piden con urgencia que las empresas que desarrollan este tipo de programas «pausen de inmediato. Durante al menos 6 meses, el entrenamiento de los sistemas de inteligencia artificial más potentes que GPT-4». El GPT-4, es la versión más avanzada ChatGPT, uno de los sistemas de IA más potentes del mundo, desarrollado por la empresa OpenAI.

En los últimos días se han difundido por las redes dos «deep fakes», diseñados por IA, desatando un remolino de comentarios. En uno de ellos se ve a Donald Trump corriendo por una calle tratando de huir de los policías que intentaban detenerlo. Luego forcejeando con los funcionarios y finalmente en la cárcel. Muchos creyeron que era cierto por lo real de las imágenes.

Piden frenar la IA por ser una amenaza para la humanidad

Asimismo, ocurrió con el Papa Francisco. Difundieron su imagen vestido con un grueso abrigo blanco de corte largo, ceñido a la cintura de la marca Balenciaga. La prenda -que desluce del atuendo tradicional del pontífice- fue creada con la herramienta de IA Midjourney.

La viralización de esta imagen falsa ha vuelto a despertar las voces de alarma que advierten que este tipo de ‘deep fakes’ pueden convertirse en armas peligrosas en el futuro. Empleadas con motivos políticos, ideológicos o religiosos y generar intencionalmente una escala de desinformación global. En otras palabras, se desatarían los demonios sin control.

Dicen los expertos en su carta que los sistemas de IA con inteligencia humana-competitiva “pueden plantear riesgos profundos para la sociedad y la humanidad”, como lo demuestra una extensa investigación  reconocida por los principales laboratorios de IA.

Como se establece en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra. Y debe planificarse y administrarse con el cuidado y los recursos correspondientes”, sugieren los especialistas.

Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, apuntan. Por el contrario, los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie. Ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable.

Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, por tanto se deben frenar.

¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? Estas preguntas las dejan al debate los expertos en tecnología, hoy asustados de su propia creación.

Controversiales, complejas y humanas

En el escrito, publicado por el grupo Future of Life Institute, los especialistas establecen que los desarrolladores están “atrapados en una carrera fuera de control”. Y es que todos quieren tener el mejor sistema de IA: Google, Microsoft y OpenAI están compitiendo por el mejor chatbot que, curiosamente, mientras más “humano” sea, más conocimiento tenga y más fácil de ocupar sea, mejor, reseña La Tercera.

Estas actualizaciones están saliendo cada vez más rápidas, como ChatGPT, que está disponible hace cuatro meses y sus nuevas versiones, como GPT-4, son muy controversiales, complejas y “humanas”. Esto que estaría preocupado a los líderes, quienes consideran que estos deberían avanzar “solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables”.

Por ello, frenar la IA temporalmente permitiría implementar “protocolos de seguridad compartidos”. Una medida que los expertos consideran necesaria y que si no se acoge por las buenas, “los gobiernos deberían intervenir e instituir una moratoria”.

Varios gobiernos están trabajando para regular las herramientas de IA de alto riesgo. El Reino Unido publicó un documento que describe su enfoque. Detalla que «evitará una legislación de mano dura que podría sofocar la innovación». Los legisladores de las 27 naciones de la Unión Europea han estado negociando la aprobación de amplias reglas de IA.

 

Además de Musk, Wozniak y Mostaque, la comunicación fue suscrita por el pionero de la IA, ganador del Premio Turing, Yoshua Bengio. Y otros investigadores líderes en IA, como Stuart Russell y Gary Marcus. Así como Andrew Yang y Rachel Bronson, presidenta del Bulletin of the Atomic Scientists. Un grupo de defensa orientado a la ciencia conocido por sus advertencias contra la guerra nuclear que termina con la humanidad.

Uso para delincuentes y terroristas

Pausar o frenar la IA es una buena idea, pero la carta es vaga y no toma en serio los problemas regulatorios, comenta James Grimmelmann. Profesor de derecho digital y de la información de la Universidad de Cornell. También es profundamente hipócrita que Elon Musk firme dado lo mucho que Tesla ha luchado contra la responsabilidad por la IA defectuosa en sus autos sin conductor.

Si bien la carta plantea el espectro de una IA nefasta mucho más inteligente de lo que realmente existe, no es la IA «sobrehumana» lo que preocupa a algunos de los que firmaron. Es impresionante una herramienta como ChatGPT: un generador de texto que hace predicciones sobre qué palabras responderían al mensaje que se le dio. En función de lo que aprendió al ingerir grandes cantidades de trabajos escritos.

Gary Marcus, un profesor emérito de la Universidad de Nueva York que firmó la carta, dijo que más le preocupa es la «IA mediocre». Que está ampliamente desplegada, incluso por delincuentes o terroristas para engañar a las personas o difundir información errónea peligrosa.

La tecnología actual ya plantea enormes riesgos para los que no estamos preparados”, escribió Marcus. “Con la tecnología del futuro, las cosas podrían empeorar.

En España también hay reacciones. Tres miembros del Consejo Asesor de la IA abandonan el órgano consultivo como protesta por el convenio de colaboración científica firmado entre España y Emiratos Árabes Unidos.

El malestar se dejó sentir en otra carta abierta. Esta vez firmada por un grupo de organizaciones en defensa de los derechos digitales. Allí los expertos denuncian el convenio de colaboración científica que el Ejecutivo selló la semana pasada con un centro de investigación de EAU. «Nos genera una enorme preocupación», expone la misiva.

Las entidades demandantes están preocupadas por el largo historial de represión de EAU, país que recorre a tecnologías de vigilancia como los sistemas de reconocimiento facial para controlar a sus ciudadanos. Es por eso que piden «una reunión con la sociedad civil». Y que se publiquen las cuentas públicas para saber «cómo se van a destinar» los cinco millones de euros de inversión, reseña El Periódico.

El convenio entre Madrid y Abu Dabi establece que ADIA Lab lanzará cinco programas de investigación junto a universidades españolas. Estudiará el análisis de datos aplicados a campos como la salud, medio ambiente, economía digital, computación de alto rendimiento y el desarrollo de la IA, a la que ahora se pide frenar.

También inquieta a los expertos, que piden una mayor transparencia de las autoridades para «establecer cómo se va a priorizar la ética y la protección de los derechos humanos de los proyectos que se realicen».

Además del uso de esa tecnología y sus secuelas en las formas de vida y percepciones de la sociedad, la IA podría poner en peligro millones de puestos de trabajo. La empresa responsable de ChatGPT y de los modelos de lenguaje GPT-3, GPT-3.5 o GPT-4, OpenAI, publicó un documento.

La propia empresa analizaba el futuro impacto de su tecnología en el mercado laboral estadounidense. Según señaló, alrededor del 80% de la fuerza laboral de los trabajadores de EE UU tendrán al menos un 10% de sus tareas afectadas por ChatGPT y tecnologías similares. Añadiendo además que el 19% de los puestos de trabajo serían afectados directamente.

300 millones de empleos en peligro

Al informe de OpenAi se une el de la entidad financiera estadounidense Goldman Sachs. En una investigación que la inteligencia artificial podría ocasionar una disrupción en el mercado laboral que afectaría a 300 millones de empleos en todo el mundo.

Sostiene que el avance en inteligencia artificial podría conducir a la automatización de una cuarta parte del trabajo realizado en Estados Unidos y Europa, mientras que alrededor de las dos terceras partes de los trabajos actuales están expuestos a un grado de automatización.

Aunque el informe tiene predicciones positivas como que los sistemas como ChatGPT podrían provocar un auge de la productividad. Aumentando así el producto interno bruto mundial anual, de forma temporal durante diez años, en un 7% y podría generar la creación de nuevos empleos, recoge El Mundo. La otra cara de la moneda es la exposición a la automatización de hasta 300 millones de trabajadores a jornada completa, según señalan los autores del informe, Joseph Briggs y Devesh Kodnan.

Cambio16.com


No hay comentarios:

Publicar un comentario

Etiquetas

Noticias de Venezuela Politica Noticias de Nueva Esparta Opinion Derechos Humanos en Venezuela Presos Politicos Dictadura en Venezuela Nacionales Noticias Nacionales Perseguidos Politicos DDHH Internacionales Noticias Estado Nueva Esparta Noticias Regionales Crisis Humanitaria Crisis Economica Cultura Noticias Internacionales Nicolas Maduro Estado Nueva Esparta Economia Crisis Social Turismo en Isla de Margarita IAPOENE Resolucion 008610 Chavez Manifestaciones en Tachira FILCAR 2015 Leopoldo Lopez Libertad de Prensa Maria Corina Machado SEBIN corrupcion Carnavales 2015 Maduro Movimiento Estudiantil UNIMAR Deportes Diosdado Cabello Hugo Chavez Libertad de Expresion 4 de febrero de 1992 Gobierno de los EEUU Isla de Margarita MUD OEA Turismo Fundacion UDC Lilian Tintori Inseguridad en Venezuela ONU Primero Justicia Barack Obama Estado Sucre Golpe de Estado del 4 de febrero de 1992 INEPOL Mesa de la Unidad Democratica dictadura Capriles Radonsky Cumana Defensor del Pueblo España Jony Rahal Voluntad Popular Henrique Capriles Radonski Lista Falciani Nelson Bocaranda PNB Secretario General de la OEA Swiss Leaks 12 de Febrero Colombia Cristina Fernandez Escolta de Diosdado Cabello lo acusa en Washington de narcotráfico Historia de Venezuela Jesus Chuo Torrealba Marianela Salazar Municipio Antolín del Campo CAMPO Noticias de Uruguay Pedro Leon Zapata RUNRUNES Rodriguez Torres TSJ Tarek William Saab Autorizan uso de armas mortales contra protestas en Venezuela CENCOEX Cartel de los Soles Caso HSBC Escolta denuncia a Diosdado Fidel Castro HSBC La Asuncion Manifestaciones en Caracas Municipio Mariño PODEMOS España Partido PODEMOS Sebastiana sin Secretos Teodoro Petkoff dictador historia Alberto Nisman Argentina CADIVI CNE Caricatura Chavismo Devaluacion del Bolivar Estado Merida FARC Guerra Economica Helicoide Inflacion en Venezuela Leamsy Salazar Luisa Ortega Diaz Manifestaciones en Merida Maxidevaluacion Municipio Gomez Ocho militares del anillo de seguridad de Maduro también huyeron Padrino Lopez Simon Bolivar UCAT UCV democracia 12F Alcaldia de Mariño Asamblea Nacional Blanqueo de Capitales Empresas de Maletin Estado Bolivar Farmatodo Fernando Luis Egaña Gobierno Español Golpe de Estado al Presidente Maduro Guayana HRW Hiperinflacion Human Rights Watch Indice de Miseria Investigacion Jorge Giordani Juan Carlos Monedero Juangriego Marta Colomina Megadevaluacion Ministerio Publico Ministro de la Defensa Municipio Diaz Municipio Tubores Noticias de Argentina Noticias de Colombia PDVSA Pedro Claver Cedeño Periodista Eladio Rodulfo Gonzalez Pollo Carvajal Porlamar Reporteros sin Fronteras SIMADI Tabare Vasquez UCAB UDO Universidad de Oriente Venezuela Primero en Indice de Miseria 2014 AD Accion Democratica Alberto Barrera Tyszka Andres Oppenheimer Autoritarismo BCV BID Banco Central de Venezuela CNP Carnaval de Carupano Carnaval del Mar Carnavales de El Callao Censura en Venezuela Cesar Miguel Rondon Convenio Cambiario 33 Corte IDH Cupo Viajero DECLARACION DE TBILISSI DISCURSO DE ANGOSTURA Educacion Efemerides Efemerides de Margarita Empresas Basicas Fiscal General de la Republica GNB Hugo Carvajal Iglesia Venezolana Laguna de La Restinga Monedero Municipio Marcano Nelson Mandela Noticias de Chile Operacion Jerico Oscar Arias Pedro Llorens Pensamientos de Simon Bolivar Puerto Libre RSF RSF 2015 Rodolfo Marcos Torres RupertiGate SICAD SIDOR Salvador Allende Sistema Cambiario Sistema Marginal de Divisas Tasa SIMADI Tribunal de la Haya UNES UPEL Víctimas inocentes del 4 de Febrero de 1992 William Brownfield Wilmer Ruperti