Ética e inteligencia artificial

(por Michele Gorga) Al evaluar el camino de la humanidad desde su origen hasta la actualidad, podemos llegar a una certeza que es que nuestra realidad de desarrollo tecnológico no es lineal, sino exponencial y esto en virtud de la ley fundamental que lleva el nombre de ley de aceleración de retornos. Una ley, esta última, que solo se puede entender si unimos puntos en un plano cartesiano: en el eje x (horizontal) establecemos el tiempo, en el eje de ordenadas (vertical) la y el nivel de progreso tecnológico alcanzado en una fecha determinada. El resultado, sin embargo, no es una recta más o menos inclinada sino una curva exponencial y en base a la tendencia que podamos derivar de ella podemos creer que en unos años se convertirá en una recta paralela a la ordenada. Así que ya no habrá ningún punto de contacto con la ordenada y la consecuencia será que ya no conoceremos la abscisa en la que nos encontramos en cada momento y, por tanto, saltaremos a la condición que la física cuántica llama singularidad.

Por "singularidad" entendemos la condición en la que operan las cuatro fuerzas fundamentales de la naturaleza, es decir: la gravedad; electromagnetismo; la fuerza fuerte que une los protones en el núcleo del átomo; la fuerza débil que gobierna el principio de desintegración radiactiva. Podemos identificar estas fuerzas con las cuatro letras correspondientes que es la G de la genética; la R de la robótica; la N de la nanotecnología; el yo de la inteligencia artificial.

Procediendo en orden, la G de "genética" nos permite identificar, de todos los seres vivos, el código genético nos permitirá mejorar la raza según el normotipo que en un momento histórico dado la moral y la ideología vigente permitirá su aterrizar y poder ser, para el hombre, lo que quiere ser, independientemente de lo que sea, y por tanto, organismos genéticamente modificados en base a lo que la moral y la política le permitan en el período histórico relativo. Pasando a la R de "Robótica" para ello debemos referirnos, no a lo que es la robótica hoy, sino a máquinas avanzadas que tendrán tanto el conocimiento del espacio como del tiempo y serán capaces de asumir aspectos humanos, Androides, capaces de tener conciencia emocional [7 ]. Entonces la robótica no solo como máquinas impulsadas por inteligencia o asistentes de trabajo, sino como entidades capaces de relacionarse en actividades profesionales con el Hombre. La consecuencia que tendrá la robótica sobre la sociedad y la política serán los movimientos sociales encaminados a hacer que los Androides y en general toda la creación sean reconocidos al mundo animal y vegetal, al medio ambiente, etc., también en este caso, la moral y la política serán obligado a tomar una posición.

Pasando a N por "nanotecnología", debemos referirnos a infinitamente micro tecnología, elementos líquidos que instantáneamente son capaces de cambiar el exterior y el interior de la realidad reemplazando y modificando el espacio mismo de la existencia humana. Finalmente, por I de "inteligencia artificial" entendemos lo que históricamente se puede comparar con el Santo Grial, - en el sentido de la IA como algoritmo de vida y conocimiento eterno - o Deus ex-machina [8], la tecnología más peligrosa y, para escenarios futuro, una tecnología tan invasiva que socava el sistema de valores y los fundamentos de la civilización humana y del hombre tal como históricamente se ha ido determinando con el tiempo.

La Inteligencia Artificial se basa, de hecho, en algoritmos que pueden ser de dominación, de control, de carrera, de consumismo, de competencia, todas tecnologías fulminantes para la senescencia humana y que podrían socavar la existencia misma de la humanidad. Y es precisamente la inteligencia artificial la que, más que cualquier otra tecnología, se está desarrollando rápidamente en nuestra sociedad y, en consecuencia, está cambiando nuestras vidas al mejorar los servicios de salud, aumentar la eficiencia de la agricultura, ayudar a mitigar cambio climático y mejorar la eficiencia de los sistemas productivos a través del análisis predictivo con un incremento en aspectos de seguridad. Al mismo tiempo, sin embargo, la inteligencia artificial trae consigo nuevos riesgos que están conectados a mecanismos opacos de toma de decisiones, posibles discriminaciones por razón de género, intrusión en la vida privada o uso de dispositivos en uso con fines delictivos. La tecnología de la IE es poderosa porque se ha vuelto transparente y todos confiamos en dispositivos que ahora podemos definir como nuestras prótesis tecnológicas y cognitivas. Por esta razón nos hemos vuelto más vulnerables, de aquellos que usan la tecnología con fines poco éticos o con fines delictivos.

Estas son las razones que llevaron a la necesidad de una coordinación europea para la disciplina de IE y esto se debe a las implicaciones humanas y éticas, inherentes a la inteligencia artificial, con la necesidad de una profunda reflexión para mejorar el uso de las grandes para la innovación, que por la necesidad de una disciplina regulatoria de obligado cumplimiento e inversiones encaminadas a lograr un doble objetivo, a saber, promover, por un lado, el uso generalizado de la IA y, por otro, mitigar todos los posibles riesgos asociados con las nuevas tecnologías digitales.

Estos son los motivos profundos que subyacen en las comunicaciones de 25 de abril de 2018 y 7 de diciembre de 2018, con las que la Comisión Europea presentó su visión sobre la inteligencia artificial (IA), bautizada como ética "AI 'made in Europe", seguro y vanguardista ".

La visión de la Comisión se basa en tres pilares: 1) aumentar la inversión pública y privada en IA para promover su adopción, 2) prepararse para el cambio socioeconómico y 3) garantizar un marco ético y legal apropiado para fortalecer los valores europeos. Para apoyar la implementación de esta visión, la Comisión creó el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial, un grupo independiente encargado de redactar dos documentos: 1) las pautas éticas para la IA y 2) las recomendaciones de inversión y política.

Para el grupo, en lo que respecta al documento sobre pautas éticas para la IA, hay que tener en cuenta que los sistemas de IA, si bien ofrecen beneficios concretos a los individuos y la sociedad, aún conllevan riesgos y tienen efectos negativos, incluso difíciles de predecir. , por ejemplo sobre la democracia, el estado de derecho, la justicia distributiva o la propia mente humana. Por eso es necesario, según el grupo de expertos, tomar las medidas adecuadas para mitigar los riesgos, de forma proporcionada a su alcance y considerar métodos para asegurar su implementación. En primer lugar, para los expertos es necesario fomentar la investigación y la innovación para apoyar la evaluación de los sistemas de IA y el logro del cumplimiento de los requisitos, difundiendo los resultados, para formar una nueva generación de expertos en ética de la IA. En consecuencia, informe claramente a las partes interesadas sobre las capacidades y limitaciones del sistema. Ser transparente, facilitar la trazabilidad y verificabilidad de los sistemas de IA, particularmente en contextos o situaciones críticas, se vuelve esencial, así como involucrar a las partes interesadas durante todo el ciclo de vida del sistema de IA y promover la formación y la educación. para que todas las partes interesadas estén formadas e informadas sobre una IA fiable. Partiendo de lo último, que es la necesidad de contar con una IA confiable, se debe enfatizar que para las personas y las empresas, la confiabilidad es un requisito previo para el desarrollo, distribución y uso de los propios sistemas. De lo contrario, el uso de las tecnologías relacionadas podría verse obstaculizado y, por lo tanto, se ralentizarían los posibles beneficios sociales y económicos. La confianza, por tanto, en el desarrollo, distribución y uso de los sistemas de IA no solo concierne a las propiedades intrínsecas de la tecnología, sino también a las cualidades de los sistemas técnicos y sociales. El grupo de trabajo estableció así, en su primer documento, las pautas para una inteligencia artificial confiable siempre que se base en tres componentes.

Estos han sido identificados: a) en la legalidad, IA que es una Inteligencia Artificial sujeta a todas las leyes y reglamentos aplicables en la materia específica; b) Ética, entendida como IA como el conjunto de reglas del código ético y los principios y valores éticos relacionados a tener siempre en cuenta; c) robustez, desde un punto de vista técnico y social, ya que incluso con las mejores intenciones, los sistemas de IA pueden causar daños no intencionales. Ahora bien, cada uno de los componentes antes mencionados es en sí mismo necesario pero, sin embargo, no es suficiente para una Inteligencia Artificial confiable. Estos tres componentes están dirigidos principalmente a las partes interesadas y son indicaciones vinculantes sobre cómo los principios éticos antes mencionados pueden hacerse operativos en los sistemas sociales y técnicos.

Partiendo del enfoque basado en los derechos fundamentales, en primer lugar, se identifican los principios éticos y valores relacionados que deben ser respetados en el desarrollo y distribución y uso de los sistemas de IA para luego pasar a las indicaciones sobre cómo crear una IA confiable mediante la declinación de los siete requisitos que deben satisfacer los sistemas de IA y para cuya implementación se pueden utilizar métodos técnicos y no técnicos y que se identifican: 1) - en intervención humana y vigilancia; 2) - en robustez técnica y de seguridad, 3) - en privacidad y gobernanza de datos, 4) -en transparencia, 5) -en diversidad, no discriminación y equidad, 6) -en bienestar social y ambiental y 7) -en 'responsabilidad. Finalmente, el grupo de expertos propuso una lista de verificación para evaluar la confiabilidad de la IA que puede ayudar a que los siete requisitos enumerados anteriormente sean operativos. Finalmente, en la sección final del documento, ejemplos de oportunidades ventajosas y serias preocupaciones que despiertan los sistemas de IA, a pesar de la conciencia de que Europa disfruta de una ventaja exclusiva, que deriva de su compromiso de colocar al ciudadano en el centro de propias actividades.

Michele Gorga, abogado y componente de observatorio para la coordinación de las OPD de AIDR

Ética e inteligencia artificial

| NEWS ', EVIDENCIA 3 |