Recientes pasos de gigantes tecnológicos ligados a la Inteligencia Artificial invitan a repensar en la tesis de expertos en el tema, quienes han alertado que la alegada preocupación de algunos de esos empresarios por contener lo perjudicial que pudiera traer la IA a la humanidad, solo pretende estar «al tanto de las normas que se adopten, y coartar las regulaciones.
La reflexión aflora luego de conocerse que Google, Microsoft, OpenAI y Anthropic han anunciado la creación de una plataforma de vigilancia para «ayudar a regular» el avance de la IA.
En una declaración conjunta, las compañías presentaron hace unos días el denominado Frontier Model Forum, «un organismo de la industria centrado en garantizar el desarrollo seguro y responsable de modelos de IA fronterizos», es decir, aquellos modelos que superan las capacidades que poseen los modelos más avanzados.
La IA podría suponer para la humanidad un «riesgo de extinción», advirtieron los propios líderes tecnológicos que la desarrollan.
Los objetivos principales del foro consisten en hacer «avanzar la investigación sobre la seguridad de la IA» promoviendo un estándar para minimizar los riesgos, centrarse en desarrollar «las mejores prácticas» para el despliegue de modelos vanguardistas y «colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad».
Además, se centrará en abordar los «grandes desafíos de la sociedad», incluida la «mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las amenazas cibernéticas».
La medida ha sido acordada en medio de múltiples advertencias procedentes de todas partes acerca del daño que el uso incontrolado o no adecuando de la IA pudiera causar a los valores y la cultura de los seres humanos, por solo mencionar alguna de las preocupaciones.
Luego de reconocer individualmente sus peligros, ahora los gurúes de las plataformas digitales afirman que el Foro que acaban de conformar «será un vehículo para debates y acciones entre organizaciones sobre seguridad y responsabilidad de la IA, asegura el comunicado, al tiempo que informa acerca de la creación, en los próximos meses, de una junta asesora destinada a dirigir «la estrategia y las propiedades» del grupo.
Para poder formar parte de la iniciativa, las organizaciones deben ajustarse a los criterios predefinidos.
«Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano. Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que esta beneficie a toda la humanidad», comunicó Brad Smith, presidente de Microsoft.
Con información de RT