Künstliche Intelligenz: Chance oder katastrophale Waffe? Selbst für Terroristen eine unfehlbare Waffe

Massimiliano D'Elia

Jeden Abend schauen und genießen wir in der Fernsehsendung „Striscia la Notizia“ von Antonio Ricci Führer Politiker und Institutionen jonglieren mit unwahrscheinlichen Tänzen und singen dabei bizarre Lieder. Die Protagonisten sind berühmte Persönlichkeiten wie der amtierende italienische Premierminister, der Präsident der Republik und die verschiedenen Oppositionsführer. Gerade sie sind es, die gesund und munter im Fernsehen Unsinn verbreiten. 

Der Wert des Artefakts ist a Software. das Ansätze der künstlichen Intelligenz (KI) nutzt, um ein wahres Fernsehwunder zu vollbringen. Ähnliche Anwendungen sind auch in sozialen Netzwerken (Tik Tok) kostenpflichtig verfügbar. Wir stehen erst am Anfang dieser innovativen und spannenden Technologie, die jedoch aufgrund der Auswirkungen, die sie in nicht allzu ferner Zukunft haben könnte, „mit Vorsicht gehandhabt“ werden muss. Aus diesem Grund sprechen wir zunehmend über die Notwendigkeit, bei der Erforschung, Entwicklung und Nutzung von Anwendungen einen Ethikkodex einzuführen, bei dem KI aufgefordert werden könnte, eine physische Aktion auszuführen, die in die reale Welt eingreifen kann.

Beispielsweise sind sich alle darüber einig, dass mit KI ausgestattete Geräte nach wie vor von Menschen autorisiert werden müssen, bevor sie eine tödliche Tat (im rein militärischen Bereich) ausführen. Ein Axiom, das jedoch reduziert wird, wenn man es mit einer Technologie zu tun hat, die theoretisch lernen, sich weiterentwickeln und vor allem den Gegner verwirren kann, der eines Tages mit dem Mann zusammenfallen könnte, der sie kontrolliert.  

Einige simulierte KI-Funktionen

In China haben sie an einer renommierten Universität (Nanjing University of Aeronautics and Astronautics) ein Programm entwickelt, das einen Luftkampf zwischen zwei Kampfflugzeugen der neuesten Generation simuliert: eines wird von einem Menschen mit all seinen physischen und psychischen Einschränkungen gesteuert, das andere von einer KI. In weniger als acht Sekunden mit Hyperschallgeschwindigkeit schoss der KI-Kämpfer seinen Gegner mühelos ab, indem er eine Rakete „im Rückwärtsgang“ abfeuerte und sich dabei allen bekannten Gesetzen der Physik widersetzte.

In der Computersimulation kämpfte das Hyperschallflugzeug gegen einen feindlichen Jet, der mit Mach 1.3 flog, was nahezu der Höchstgeschwindigkeit einer F-35 entspricht. Der Pilot des Hyperschallflugzeugs erhielt den Befehl, den Feind abzuschießen. Der Instinkt hätte den Piloten auf das Ziel lenken sollen, aber der Pilot flog, gesteuert von künstlicher Intelligenz, in eine unerwartete Position, weit vor dem feindlichen Flugzeug, und feuerte eine Rakete nach hinten ab. Die Rakete traf den 30 km entfernten Gegner und beendete so den Kampf innerhalb von Sekunden.

Trotz aller Bedenken und Befürchtungen haben Staaten, zumindest was ihre eigene militärische Abschreckung betrifft, bereits zukunftsweisende Programme auf den Weg gebracht, etwa Flugzeuge der sechsten Generation, die bei ihren Missionen durch Geräte unterstützt werden, die von mit KI ausgestatteten Einheiten gesteuert werden. Aus dieser Perspektive versuchen verschiedene Regierungen, den kulturellen, sozialen und produktiven Umgang mit dieser neuen und unerforschten Technologie so weit wie möglich zu regulieren.

China

Grundlegende Sicherheitsanforderungen für generative künstliche Intelligenzdienste ist der Titel eines Dokuments, das kürzlich in Entwurfsform von veröffentlicht wurdeChinesische nationale Körperschaft für  Standardisierung der Informationssicherheit Hier werden die Spezifikationen festgelegt, die die Lieferanten einhalten müssen Dienstleistungen basierend auf generativer KI. Obwohl sich das Dokument noch in einer nicht endgültigen Fassung befindet, unterstreicht es den Ansatz der chinesischen Regierung, die Auswirkungen von KI auf soziale und politische Beziehungen zu bewältigen. Es umfasst nicht nur rechtliche Vorschriften, sondern auch technische Vorschriften, die eine größere konkrete Wirksamkeit haben können, da sie eingehalten werden müssen zuerst einen Dienst zur Verfügung stellen.

US

Der amerikanische Präsident, Joe Biden Es wird erwartet, dass er nächste Woche ein Dokument unterzeichnet, das sich mit den rasanten Fortschritten der künstlichen Intelligenz befasst und damit den Grundstein dafür legt, dass Washington KI als Werkzeug in sein nationales Sicherheitsarsenal einführt. Eine wesentliche Voraussetzung sei, dass Unternehmen die Technologie auf sichere Weise entwickeln, heißt es in dem Bericht. Das Dokument zielt daher darauf ab, Richtlinien für den Einsatz von KI durch Bundesbehörden festzulegen und gleichzeitig die Kaufkraft der Regierung zu nutzen, um Unternehmen auf die ihrer Meinung nach besten Praktiken hinzuweisen. Das Weiße Haus organisierte außerdem eine Veranstaltung mit dem Titel „Sichere und zuverlässige KI“.

Die amerikanische Regierung muss daher die Angelegenheit regeln, um neue und innovative militärische Fähigkeiten zu entwickeln, um langfristig eine glaubwürdige globale Abschreckung zu gewährleisten. Es ist geplant, die zu nutzen National Institute of Standards and Technology Ermittlung von Branchenmaßstäben für das Testen und Bewerten von KI-Systemen. Eine weitere Bedingung ist die staatliche Aufsicht über die kürzlich von großen amerikanischen Unternehmen eingegangenen KI-Verpflichtungen.

Zu den von der US-Regierung identifizierten Sektoren gehören Bedrohungen für die Cybersicherheit nach dem Aufkommen künstlicher Intelligenz. 

Es wird erwartet, dass künstliche Intelligenz durch die Analyse von Schwachstellen und Angriffen eine wichtige Ressource zur Erkennung von Bedrohungen werden kann Phishing, soziale Medien, E-Mail und Chat. Es könnte auch nützlich sein, um Muster in Geheimdienstberichten zu finden, die Menschen möglicherweise übersehen. Sicherheitsforscher und Geheimdienstmitarbeiter haben gesagt, dass KI ein notwendiges Werkzeug sein kann, um die Cyberabwehr von Unternehmen, kritischen Infrastrukturen, Regierungsbehörden und Einzelpersonen drastisch zu verbessern. Es könnte aber auch von ausländischen Regierungen und kriminellen Hackern als Waffe zum Schreiben genutzt werden Malware, automatisieren Sie Einbruchsversuche einfacher und reagieren Sie schnell auf sich entwickelnde Sicherheitsmaßnahmen.

England

Künstliche Intelligenz könnte Terroristen bei der Entwicklung von Massenvernichtungswaffen helfen, heißt es in einem Dokument, das anlässlich seines Amtsantritts für Premierminister Rishi Sunak erstellt wurde Rede an die Kammern. Die Analyse des Berichts erklärt, wie künstliche Intelligenz zwar erhebliche Chancen bietet, „bringt auch neue Gefahren und Ängste mit sich„. In dem mit Unterstützung von 50 Experten verfassten Regierungsdokument heißt es, dass KI bis 2025 für Betrug und Cyberangriffe eingesetzt werden könnte. Das Dokument erklärt, dass KI das Potenzial haben wird, „terroristische Fähigkeiten“ bei der Entwicklung von Waffen, der Planung von Angriffen usw. zu verbessern bei der Produktion von Propaganda. Zu den schwerwiegendsten Risiken, die bis 2030 auftreten könnten, gehören die „Massendesinformation“ und eine „Krise“ in Bezug auf die Beschäftigung aufgrund des massiven Einsatzes von KI bei manuellen Tätigkeiten, bei denen derzeit der Einsatz von Menschen erwartet wird.

Gleichzeitig werde KI jedoch zu „neuem Wissen, neuen Möglichkeiten für Wirtschaftswachstum, neuen Fortschritten in den menschlichen Fähigkeiten und der Möglichkeit führen, Probleme zu lösen, die einst als unlösbar galten“. 

In dem Dokument heißt es außerdem, dass es derzeit keine ausreichenden Beweise gebe, um eine Bedrohung der Menschheit durch KI auszuschließen. 

Der Bericht hebt hervor, dass Technologieunternehmen bis 2030 eines entwickeln könnten „Superintelligenz“ künstliches Gerät, das komplexe Aufgaben ausführen und Menschen täuschen kann, was ein „katastrophales“ Risiko darstellen würde. Ein weiteres Beispiel erklärt, wie ein Unternehmen auf Kosten der globalen Konkurrenz eine technologische Dominanz erlangen könnte. Der Bericht warnt außerdem davor, dass KI bei unsachgemäßem Einsatz, beispielsweise durch autonomes Starten von Cyber-Angriffen, „bestehende Cyber-Risiken erheblich verschärfen könnte“.

"Diese Systeme sind in der Lage, komplexe Aufgaben zu erledigen, die Planung und Überlegung erfordern, und können flexibel miteinander interagieren“, heißt es in dem Bericht. „Sobald sie sich eine Aufgabe stellen, entwickeln sie eine Strategie mit Unterzielen und erlernen so neue Fähigkeiten.“

Es können jedoch „unbeabsichtigte Konsequenzen“ auftreten, einschließlich der „Umleitung“ von Informationen und Ressourcen zur Erreichung von Zielen.

Zukünftige Innovationen in der Software und Hardware werden es der KI ermöglichen, durch Roboter und selbstfahrende Autos „mit der physischen Welt zu interagieren“. „Diese autonomen Systeme werden große Datenmengen sammeln, die kanalisiert werden, um ihre Fähigkeiten zu verfeinern“, heißt es in dem Bericht.

Künstliche Intelligenz: Chance oder katastrophale Waffe? Selbst für Terroristen eine unfehlbare Waffe

| NEWS ', Beweise 1 |