Aunque muy propalado, algunos dudan del trasfondo del reclamo lanzado por uno de los fundadores de OpenAI y de su sistema generativo de texto ChatGPT, Sam Altman, para que se regule su uso, luego de advertir que esa tecnología también puede entrañar riegos a la humanidad.
En una comparecencia ante el subcomité sobre Privacidad, Tecnología y Legislación del Senado de Estados Unidos, Altman explicó que su empresa planea construir y liberar sistemas cada vez más peligrosos y que necesita su ayuda para garantizar que la transición a la superinteligencia suceda sin poner en peligro a la humanidad. Y para ello propuso que se regule la IA.
Pero el interés en que las regulaciones estén listas antes que la tecnología se expanda, y que la propuesta de hacerlo nazca de sus propios mentores, podría constituir una vía para ser partícipe de la elaboración de esas normas, y dejar las posibilidades de la IA y su chat GPT, a buen recaudo.
Eso es lo que advierte la especialista en tecnología Marta Peirano, quien en un artículo publicado por el diario español El País, afirma que resulta sorprendente que un directivo «pida regulación en una industria famosa por su resistencia a ser fiscalizada».
La experta recordó que cuando el Congreso de Estados Unidos quiso regular las criptomonedas llamaron a Sam Bankman-Fried, fundador de FTX, quien «abrazó tan públicamente la regulación de su criptonegocio que, cuando llegó la hora de escribir las leyes, los reguladores le llamaron a él». Bankman-Fried, quien también se había ganado la confianza de Washington por sus donaciones millonarias a las campañas demócratas «y en secreto una cantidad equivalente a las republicanas», afirma el artículo, propuso diseñar «a su medida» la regulación de las criptomonedas gracias a esa estrategia. Así nació la Ley de Protección al Consumidor de Bienes Digitales (DCCPA).
Según Marta Peirano, esa es la estrategia del «nuevo favorito de Washington, Sam Altman, para diseñar a su medida una nueva regulación de IA».
Altman se postula ante el Congreso como el benévolo guardián de una nueva especie de criatura asombrosa, un unicornio salvaje capaz de llevarnos a un mundo mágico que necesita ser domado para no atravesarnos con su poderoso cuerno multicolor, comenta con ironía la también autora de los libros El enemigo conoce el Sistema y Contra el Futuro.
Sin embargo, alerta, mientras se ayuda a Altman «a domar ese unicornio», OPenAI habrá privatizado sin permiso los contenidos de la Red, infringiendo leyes preexistentes como la propiedad intelectual, y usando los beneficios de ese expolio para ayudar a otras industrias a vigilar y degradar las condiciones laborales de sus trabajadores, como han entendido los guionistas del Writers Guild.
La especialista apuntó que entrenar GPT-3 consume cientos de veces la energía de una vivienda y produce 502 toneladas métricas de CO₂, pero no es esa la regulación que pide Altman. «¿A quién le importan el medioambiente, la propiedad intelectual o los derechos laborales cuando nos enfrentamos a la Singularidad»?, preguntó.
Altman quiere licencias y una agencia que las otorgue y que controle el desarrollo y uso de IA para que los modelos no licenciados puedan «autoreplicarse y autoimplantarse a lo loco», aseguró el artículo.
Según la experta, su propuesta imita claramente al tratado de no proliferación nuclear y favorecería el monopolio de gigantes como Google, Meta, Microsoft, Anthropic y OpenAI sobre modelos abiertos y colaborativos en todo el mundo. «Estados Unidos debe liderar —dice Altman— pero para que sea efectivo, necesitamos una regulación global».
Un informe reciente del Corporate Europe Observatory, un grupo con poder en el lobby de las grandes empresas en la UE, denunciaba la intensa campaña de presión que han emprendido esos gigantes para intervenir en la nueva ley europea de inteligencia artificial, antes de ser aprobada por los diputados del Parlamento Europeo.
El borrador final establece que los modelos generativos como ChatGPT deberán revelar si sus modelos han sido entrenados con material con derechos de autor y los generadores de texto o imágenes, como MidJourney, tendrán que identificarse como máquinas y marcar su contenido de forma que se pueda identificar.
El proyecto también considera normas especiales de transparencia para los sistemas que califican de alto riesgo, como los algoritmos utilizados para gestionar a los trabajadores de una empresa o para control migratorio de fronteras por parte de un gobierno. Esos sistemas, dice la experta, deberán cumplir requisitos de mitigación de riesgos, como mostrar los datos que han utilizado para entrenar la IA y las medidas que han tomado para corregir los sesgos.
Pero se ha eliminado el importante requisito de que los modelos sean auditados por expertos independientes, y propone también la creación de un nuevo organismo de IA para establecer un centro centralizado de aplicación y control, alerta la estudiosa.
Un detalle importante: los modelos de IA no están protegidos como lo estaban las plataformas, de responsabilizarse de los contenidos que circulan por sus servidores, agrega.
No los ampara la Sección 230 ni sus equivalentes en otras partes del mundo. Tienen que garantizar que sus herramientas no produzcan contenido relacionado con abuso infantil, terrorismo, discurso de odio u cualquier otro tipo de contenido que viole la legislación de la Unión Europea. Sin embargo, revela, ChatGPT ya produce gran parte de la propaganda que intoxica las redes sociales con el objetivo de manipular los procesos democráticos.
«Si Sam Altman consigue esquivar también esa clase de responsabilidades en EE. UU., es improbable que le pongamos el cascabel nosotros aquí», advierte.
Foto de portada: Tomado del Diario Vasco