OpenAI está pensando en un receptor profundamente falso

Emanuela Ricci

Con importantes citas electorales a la vuelta de la esquina, las europeas en junio y las americanas en noviembre, la preocupación por parte de los partidos va en aumento gran tecnología sobre el uso malicioso que se puede hacer de modelos avanzados de inteligencia artificial para influir en la opinión pública, a través de campañas generalizadas y dirigidas en sociales con el uso de narrativa, imágenes, vídeos pero también audio adecuadamente endulzado por máquinas. En los últimos meses, el audio y las imágenes ya han influido en las campañas políticas y en las votaciones en Eslovaquia, Taiwán y la India. Poseer una herramienta de captura noticias falsas o falso profundo sería ideal para certificar fuentes y productos publicados; una herramienta de IA capaz de encontrar y hacer visibles los productos falso colocados en Internet, especialmente aquellos referidos a imágenes, vídeos y audios que, notoriamente, tienen un mayor impacto mediático.

Por ello, los expertos preguntan a los grandes nombres del sectorhitech buscar soluciones para evitar que los usuarios generen material engañoso y malicioso y empezar a pensar en formas efectivas de rastrear el origen y la distribución de dicho material.

OpenAI, desarrollador del potente modelo de IA generativa Chatgpt, que ya cuenta con 1,7 millones de usuarios en todo el mundo, está trabajando en un detector de falsificaciones. La prueba del detector se realiza con el popular generador de imágenes DALL-E. Los expertos coinciden en que los detectores de deepfake podrán encontrar productos falsificados o creados rayar no de forma absoluta y definitiva ya que, al estar programados con algoritmos que analizan probabilidades e información real que se posee en ese momento, nunca podrán ser fieles a la velocidad de la infodemia de hoy.

Ayer OpenAI anunció que compartiría su nuevo detector deepfake con un pequeño grupo de investigadores de desinformación para que pudieran probar la herramienta en situaciones del mundo real y ayudar a identificar formas de mejorarla. Sin embargo, Open AI ha declarado que su nuevo cazador falso profundo identificará correctamente el 98,8 por ciento de las imágenes creadas por DALL-E 3.

Sin embargo, la empresa ha aclarado que la herramienta no fue diseñada para detectar imágenes producidas por otros generadores populares como a mitad de camino e Estabilidad.

ChatGPT Desde hace unos días pide a los usuarios que se identifiquen a través de su imagen personal que se toma. tiempo real desde la plataforma, o pide poder fotografiar un documento de identificación. El usuario del servicio ha sido identificado, manteniéndose además toda la información en los archivos rápido, ChatGPT debería poder rastrear potencialmente la genealogía de los contenidos para posibles usos futuros de los mismos en la galaxia ilimitada de Internet. web.

Otra iniciativa para resolver el problema es identificar organismos de certificación de contenidos "universales". OpenAI, al igual que gigantes como Google y Meta, se une al comité directivo de la Coalición para la procedencia y autenticidad del contenido. C2PA. Iniciativa que pretende desarrollar credenciales para contenidos digitales. El estándar C2PA es una especie de “etiqueta” para imágenes, vídeos, clips de audio y otros archivos que muestra cuándo y cómo fueron producidos o modificados, incluso mediante aplicaciones de inteligencia artificial. OpenAI también dijo que está desarrollando formas de marcar los sonidos generados por IA para que puedan identificarse fácilmente cuando se reproducen. La empresa espera que estas marcas sean difíciles de eliminar.

Sin embargo, es importante que hablemos de ello y que surjan iniciativas espontáneas capaces de certificar la genealogía del material que se pone en línea. Todavía estamos en los albores de esta tecnología que ya se perfila como una nueva revolución industrial.

C2PA

La Coalición para la Procedencia y Autenticidad del Contenido (C2PA) es un proyecto de la Joint Development Foundation, una organización sin fines de lucro con sede en Washington que reúne los esfuerzos de la Iniciativa de Autenticidad del Contenido (CAI) y el Proyecto Origen.

Fundada a finales de 2019 por Adobe en asociación con el New York Times y Twitter, CAI está creando un sistema para proporcionar la procedencia y el historial de los medios digitales, proporcionando una herramienta para que los creadores reclamen la autoría y empoderando a los consumidores para tomar decisiones informadas sobre en qué confiar. Project Origin, fundado en 2019 por la BBC, CBC Radio Canada, Microsoft y el New York Times, se centra en combatir la desinformación en las noticias digitales definiendo un proceso de extremo a extremo para publicar, distribuir y agregar marcas al contenido para demostrar su integridad. .

El C2PA combina los esfuerzos de estos dos grupos y se centra exclusivamente en el desarrollo de estándar Ingenieros abiertos y globales para canalizar los esfuerzos de abastecimiento de contenido de CAI y Project Origin.

¡Suscríbete a nuestro boletín!

OpenAI está pensando en un receptor profundamente falso

| NEWS ' |