Microsoft pide nuevo organismo que supervise y licencie la IA

OpenAI, Sam Altman, The Center for AI Safety ,Microsoft , Governing AI, Blueprint , for the Future, programapublicidad

Microsoft afirma que se necesitan marcos regulatorios que anticipen y prevengan los riesgos asociados con este tipo de tecnología

Varios organismos reguladores han alertado sobre el sesgo en los algoritmos utilizados en sistemas de inteligencia artificial.

Microsoft se suma al grupo que apuesta por regular los tipos más poderosos de inteligencia artificial, como el modelo de aprendizaje de idiomas GPT-4.  Se trata del artículo «Governing AI: A Blueprint for the Future», en que la compañía señala que la inteligencia artificial «altamente capaz» es impresionante pero también impredecible.

Se suma a la recomendación del CEO de OpenAI, Sam Altman, sobre la necesidad de una agencia capaz de supervisar  los avances más destacados en inteligencia artificial.

Microsoft, inversor en OpenAI y ha incorporado el modelo GPT-4 en su motor de búsqueda Bing,  como medida necesaria ante los desafíos que plantean los modelos altamente capaces y ante el hecho de que no todos los actores puedan tener tan buenas intenciones o estén suficientemente preparados para abordar estos retos.

Microsoft reconoce que, a pesar de las rigurosas pruebas y la ingeniería previa al lanzamiento, en ocasiones solo se descubren los límites de las capacidades del modelo a través de lanzamientos controlados con los usuarios. Un trabajo necesario para aprovechar el potencial de estos modelos y alinearlos con la ley y los valores sociales es complejo y en constante evolución.

Para  Microsoft  los legisladores y otros funcionarios están prestando cada vez más atención a la inteligencia artificial. 

Incluso la Comisión Federal de Comercio señala que la tecnología puede ser utilizada por estafadores, mientras facilita la discriminación y las violaciones de la privacidad.

Varios organismos reguladores han alertado sobre el sesgo en los algoritmos utilizados en sistemas de inteligencia artificial. Incluso la Comisión de Igualdad de Oportunidades de Empleo advierte que los chatbots podrían propiciar la discriminación a personas con discapacidad, al descartar a candidatos con lagunas en sus currículos quizá debidas a una discapacidad.

OpenAI también advirtió el año pasado que la inteligencia artificial podría alimentar la desinformación. Además modelos como ChatGPT podrían responder a instrucciones dañinas o de comportamiento sesgado con casos de fallos inesperados   como el chatbot Sydney impulsado por inteligencia artificial de Microsoft,  conocido porque hace poco trató de persuadir a un periodista del New York Times,  de que se divorciara de su esposa.

Pero no  todos están de acuerdo con la propuesta de establecer una nueva agencia para manejar los posibles peligros de la inteligencia artificial. 

Para Electronic Frontier Foundation crear una comisión gubernamental favorecería a las grandes empresas o a las de mayores recursos financieros 

La declaración emitida por el Center for AI Safety, respaldada por destacados líderes empresariales, expertos e investigadores en inteligencia artificial, plantea una reflexión interesante sobre la sinceridad y la posibilidad de que haya motivos anticompetitivos detrás de las reservas expresadas sobre los chatbots de IA.

Es natural que en un campo tan innovador y en constante evolución como la IA, surjan preocupaciones legítimas sobre los posibles riesgos y desafíos que esta tecnología puede plantear. Sin embargo, también podemos preguntarnos si algunas de estas reservas pueden ser impulsadas por motivos anticompetitivos o estratégicos, ya que la IA está emergiendo como una industria con un enorme potencial económico y poder empresarial unido a todos esos riesgos de seguridad o sesgo. 

SUSCRÍBETE AL BOLETÍN

Regístrate para recibir las últimas novedades del Programa de La Publicidad en tu email