La Inteligencia Artificial corre mientras la regulación se ralentiza

Massimiliano D'Elia

A un año del inicio de la revolución tecnológica, ligada a las nuevas oportunidades que ofrecen las aplicaciones de los sistemas estudiados, a través de algoritmos de inteligencia artificial (IA), se destacan preocupaciones éticas y de seguridad, incluidos riesgos como la desinformación y la pérdida de control sobre la tecnología. La ruptura siguiente rumores y las expulsiones forzosas dentro de OpenAI, empresa líder en IA, entre el componente filantrópico y el comercial, es una consecuencia directa de esta revolución que afecta a los ciudadanos de a pie, a las grandes empresas pero también a los Estados que intentan evitar el uso malicioso de la IA por parte de grupos terroristas y ciberdelincuentes.

El fundador de la primera empresa del sector, Open AI, Sam Altman, inicialmente orientado a objetivos sin ganancia, ha desviado la atención hacia la debido a las extraordinarias nuevas oportunidades de mercado. El éxito de la primera plataforma ChatGPT de hecho, amplificó las contradicciones de una estructura que, a pesar de que el objetivo inicial era evitar el capitalismo desregulado, se encontró gobernando una realidad comprometida con la maximización de ganancias.

OpenAI, la primera organización que propuso en el mercado un modelo innovador de IA, llamado ChatGPT, tuvo que enfrentarse a una sangrienta lucha interna dentro de la junta directiva, compuesta tanto por miembros del componente filantrópico como por los del componente empresarial-comercial. . Han surgido con fuerza contradicciones y visiones divergentes sobre la ética y el lucro. En particular, Altman, a pesar de tener preocupaciones éticas, gradualmente cambió la balanza hacia la , reconociendo las extraordinarias oportunidades de mercado que ofrece la inteligencia artificial.

La reciente lucha interna en OpenAI se describe como la primera batalla para definir el futuro de la IA, donde el componente comercial y orientado a los negocios ha superado a las asociativas y sin fines de lucro.

Sin embargo, ahora debemos abordar los desafíos inmediatos, como el riesgo de desinformación en las elecciones de 2024 y el peligro de escenarios apocalípticos. Condiciones extremas en las que la máquina (dotada de superinteligencia) podría prevalecer sobre las decisiones humanas, amplificando el concepto Terminator, evocado repetidamente por quienes se muestran escépticos ante esta tecnología inexplorada a la que, según una opinión compartida, es necesario imponer frenos regulatorios universales. Evite situaciones impredecibles sin vuelta atrás.

A pesar de los esfuerzos de colaboración entre empresas y gobiernos, nos dirigimos hacia las próximas fechas límite electorales importantes (EE.UU., UE y Taiwán) sin las defensas adecuadas. En Europa, por ejemplo, todavía hay debate sobre la AI Act, un documento que debería regular el desarrollo y uso de plataformas que exploten modelos de inteligencia artificial. Entre los problemas relacionados con la privacidad de los ciudadanos y el uso indiscriminado del reconocimiento facial, el camino es cuesta arriba, en un momento en el que se está estableciendo un nuevo orden mundial tras el intenso conflicto entre las superpotencias tradicionales y las emergentes.

tratamos de regular

Unión Europea. La Unión Europea se ha comprometido a convertirse en un actor clave en la regulación de la Inteligencia Artificial (IA) a través de la “AI Act”. El próximo diálogo tripartito, previsto para el 6 de diciembre de 2023, será crucial para determinar la posibilidad de aprobar el texto a finales de 2023. En el contexto del "Proceso de IA de Hiroshima”, los líderes del G7 anunciaron once principios rectores y un Código de conducta para los desarrolladores de IA.

Los principios rectores tienen como objetivo proporcionar orientación a los desarrolladores, los organismos académicos y los sectores público y privado involucrados en el desarrollo de sistemas avanzados de IA. Incluyen medidas para evaluar y mitigar los riesgos, transparencia en las capacidades y limitaciones de los sistemas y promoción de políticas de gobernanza basadas en riesgos. El Código de Conducta detalla orientación práctica para los desarrolladores de IA, con especial énfasis en la transparencia de los modelos, la publicación de informes y el intercambio de información en la sociedad civil.

El Código de Conducta, aplicable de forma voluntaria, es de gran importancia ya que es de aplicación inmediata y puede extenderse a nivel mundial. A diferencia de la Ley de IA, el Código puede influir en la regulación de la IA en un contexto de creciente atención y evaluación de la rendición de cuentas por parte de las empresas.

Estados Unidos de America. La Orden Ejecutiva de Estados Unidos, emitida el 30 de octubre de 2023 por el presidente Joe Biden, aborda cuestiones cruciales relacionadas con el uso seguro de la Inteligencia Artificial (IA). Impone transparencia a los desarrolladores, exigiendo compartir los resultados de las pruebas con el gobierno y confiando a la Instituto Nacional de Estándares y Tecnología la tarea de definir estándares para modelos seguros de IA. Además, se centra en prevenir la desinformación asignando a Departamento de Comercio la guía técnica para garantizar la autenticidad del contenido generado por IA.

La Orden también aborda la cuestión de sesgo cognitivo, intentando evitar la discriminación en sectores sensibles. Es necesaria una revisión de los criterios utilizados en los sistemas de IA para identificar sesgos o disparidades. Además, se espera un estudio en profundidad sobre el impacto de las tecnologías en el empleo y el procesamiento. las mejores prácticas para mitigar daños potenciales y maximizar los beneficios.

Acuerdo trinacional. Además, existe un acuerdo informal entre Italia, Francia y Alemania del 19 de noviembre de 2023 sobre la regulación de los modelos básicos en IA generativa. Este acuerdo, a diferencia del enfoque basado en riesgos de la AI Act, propone una autorregulación obligatoria a través de códigos de conducta. Se pide a los desarrolladores de IA que redacten "tarjetas modelo” con información sobre las capacidades y limitaciones de los modelos. Un organismo de gobernanza de la IA supervisará la aplicación de estos códigos de conducta. Es crucial el punto que no prevé sanciones para la "primera infracción", reservando sanciones sólo para violaciones sistemáticas de los códigos de conducta. Este acuerdo puede influir en las negociaciones sobre la Ley de IA entre los estados miembros, retrasando potencialmente su promulgación.

¡Suscríbete a nuestro boletín!

La Inteligencia Artificial corre mientras la regulación se ralentiza

| OPINIONI |