Sztuczna inteligencja: szansa czy katastrofalna broń? Niezawodna broń nawet dla terrorystów

przez Massimiliano D'Elia

Każdego wieczoru w programie telewizyjnym Antonio Ricciego „Striscia la Notizia” oglądamy, cieszymy się, lider politycy i instytucje żonglują niecodziennymi tańcami, śpiewając dziwaczne piosenki. Bohaterami są wybitne postacie, takie jak urzędujący premier Włoch, Prezydent Republiki i różni przywódcy opozycji. To właśnie oni, żywi i cali, przyjemnie szerzą bzdury w telewizji. 

Zasługą artefaktu jest oprogramowanie który wykorzystuje podstawy sztucznej inteligencji (AI), aby dokonać prawdziwego telewizyjnego cudu. Podobne aplikacje są również dostępne za opłatą w sieciach społecznościowych (Tik Tok). Jesteśmy dopiero na początku tej innowacyjnej i ekscytującej technologii, z którą jednak należy się „obchodzić ostrożnie” ze względu na skutki, jakie może ona wywołać w niezbyt odległej przyszłości. Z tego powodu coraz częściej mówi się o konieczności przyjęcia kodeksu etycznego podczas badań, rozwoju i użytkowania aplikacji, w których sztuczna inteligencja mogłaby zostać wezwana do wykonania fizycznej czynności mogącej ingerować w świat rzeczywisty.

Wszyscy są na przykład zgodni co do tego, że urządzenia wyposażone w sztuczną inteligencję nadal muszą zostać autoryzowane przez człowieka, zanim dokonają śmiercionośnego czynu (w obszarze czysto wojskowym). Aksjomat, który jednak staje się redukcyjny w obliczu technologii, która teoretycznie będzie w stanie się uczyć, ewoluować, a przede wszystkim zmylić przeciwnika, który pewnego dnia może zrównać się z człowiekiem odpowiedzialnym za jej kontrolowanie.  

Niektóre symulowane możliwości sztucznej inteligencji

W Chinach na prestiżowym uniwersytecie (Uniwersytet Aeronautyki i Astronautyki w Nanjing) opracowano program symulujący bitwę powietrzną pomiędzy dwoma myśliwcami najnowszej generacji: jednym pilotowanym przez człowieka ze wszystkimi jego ograniczeniami fizycznymi i psychologicznymi, drugim przez sztuczną inteligencję. W niecałe osiem sekund z prędkością hipersoniczną myśliwiec AI z łatwością zestrzelił swojego przeciwnika, wystrzeliwując rakietę „w odwrotną stronę”, przecząc wszelkim znanym prawom fizyki.

W symulacji komputerowej hipersoniczny samolot walczył z wrogim odrzutowcem lecącym z prędkością 1.3 Macha, bliską maksymalnej prędkości F-35. Pilot samolotu hipersonicznego otrzymał rozkaz zestrzelenia wroga. Instynkt powinien był skierować pilota w stronę celu, jednak pilot kierowany przez Sztuczną Inteligencję skierował się w nieoczekiwane miejsce, daleko przed samolotem wroga i wystrzelił rakietę w tył. Pocisk trafił w oddalonego o 30 km przeciwnika, kończąc tym samym bitwę w ciągu kilku sekund.

Pozbawiwszy rozważań i obaw, państwa, przynajmniej w zakresie własnego odstraszania militarnego, uruchomiły już futurystyczne programy, takie jak samoloty szóstej generacji, które w swoich misjach będą wspierane przez urządzenia kierowane przez podmioty wyposażone w sztuczną inteligencję. Z tej perspektywy różne rządy próbują w miarę możliwości uregulować kulturowe, społeczne i produktywne podejście do tej nowej i niezbadanej technologii.

Chiny

Podstawowe wymagania bezpieczeństwa dla usługi generatywnej sztucznej inteligencji to tytuł dokumentu niedawno opublikowanego w wersji roboczej przezChiński organ krajowy dla Standaryzacja Bezpieczeństwa Informacji który określa specyfikacje, których muszą przestrzegać dostawcy usługi oparte na generatywnej sztucznej inteligencji. Dokument, choć jeszcze w wersji nieostatecznej, podkreśla podejście chińskiego rządu do zarządzania wpływem sztucznej inteligencji na relacje społeczne i polityczne. Obejmuje nie tylko przepisy prawne, ale także przepisy techniczne, które mogą mieć większy stopień konkretnej skuteczności, ponieważ muszą być przestrzegane pierwszy aby udostępnić usługę.

Stany Zjednoczone

Amerykański Prezydent, Joe Biden oczekuje się, że w przyszłym tygodniu podpisze dokument dotyczący szybkiego postępu w dziedzinie sztucznej inteligencji, przygotowując grunt pod przyjęcie przez Waszyngton sztucznej inteligencji jako narzędzia w arsenale bezpieczeństwa narodowego. Istotnym warunkiem jest to, aby przedsiębiorstwa rozwijały technologię w sposób bezpieczny – precyzuje raport. Celem dokumentu jest zatem ustalenie wytycznych dotyczących wykorzystania sztucznej inteligencji przez agencje federalne, przy jednoczesnym wykorzystaniu siły nabywczej rządu, aby kierować firmy w stronę tego, co uważa za najlepsze praktyki. Biały Dom zorganizował także wydarzenie pt „Bezpieczna, pewna i niezawodna sztuczna inteligencja”.

Administracja amerykańska musi zatem uregulować tę kwestię, aby opracować nowe i innowacyjne zdolności wojskowe, które z czasem zagwarantują wiarygodne globalne odstraszanie. Planowane jest wykorzystanie ww Narodowy Instytut Norm i Technologii określenie wzorców branżowych w zakresie testowania i oceny systemów sztucznej inteligencji. Kolejnym warunkiem jest nadzór rządowy nad zobowiązaniami AI podjętymi ostatnio przez największe amerykańskie firmy.

Do niektórych sektorów zidentyfikowanych przez rząd USA należą zagrożenia dla cyberbezpieczeństwa wynikające z pojawienia się sztucznej inteligencji. 

Oczekuje się, że sztuczna inteligencja może stać się ważnym źródłem identyfikacji zagrożeń poprzez analizę podatności i prób phishing, media społecznościowe, e-mail i czat. Może być również przydatny do wyszukiwania wzorców w raportach wywiadowczych, które ludzie mogą przeoczyć. Badacze ds. bezpieczeństwa i urzędnicy wywiadu stwierdzili, że sztuczna inteligencja może być narzędziem niezbędnym do radykalnego ulepszenia cyberobrony przedsiębiorstw, infrastruktury krytycznej, agencji rządowych i osób prywatnych. Ale może być również używany jako broń przez zagraniczne rządy i hakerów-kryminalistów do pisania malware, łatwiej automatyzować próby włamań i szybko reagować na zmieniające się zabezpieczenia.

Anglia

Sztuczna inteligencja może pomóc terrorystom w opracowaniu broni masowego rażenia – ostrzeżenie znajduje się w dokumencie sporządzonym dla premiera Rishiego Sunaka z okazji jego przemówienie do Izb. Analiza raportu wyjaśnia, w jaki sposób sztuczna inteligencja, oferując jednocześnie znaczne możliwości, „niesie ze sobą także nowe niebezpieczeństwa i lęki„. Rządowy dokument, napisany przy wsparciu 50 ekspertów, stwierdza, że ​​do 2025 roku sztuczna inteligencja będzie mogła być wykorzystywana do popełniania oszustw i cyberataków. W dokumencie wyjaśniono, że sztuczna inteligencja będzie miała potencjał „zwiększania zdolności terrorystycznych” w zakresie opracowywania broni, planowania ataków i w produkcji propagandy. Do najpoważniejszych zagrożeń, jakie mogą pojawić się do 2030 r., zaliczają się: „masowa dezinformacja” oraz „kryzys” zatrudnienia w następstwie masowego stosowania sztucznej inteligencji w pracach fizycznych, w których obecnie oczekuje się wykorzystania ludzi.

Jednocześnie jednak sztuczna inteligencja doprowadzi do „nowej wiedzy, nowych możliwości wzrostu gospodarczego, nowego postępu w zakresie możliwości ludzkich i możliwości rozwiązywania problemów, które kiedyś uważano za nierozwiązywalne”. 

W dokumencie stwierdza się także, że obecnie nie ma wystarczających dowodów, aby wykluczyć zagrożenie dla ludzkości ze strony sztucznej inteligencji. 

W raporcie podkreślono, że do 2030 r. firmy technologiczne będą mogły je opracować „superinteligencja” sztuczne urządzenie zdolne do wykonywania skomplikowanych zadań i oszukiwania ludzi, co stanowiłoby ryzyko „katastrofalne”. Inny przykład wyjaśnia, w jaki sposób firma może zdobyć dominację technologiczną kosztem globalnych konkurentów. W raporcie ostrzega się również, że sztuczna inteligencja może „znacznie zaostrzyć istniejące zagrożenia cybernetyczne”, jeśli zostanie niewłaściwie wykorzystana, na przykład poprzez autonomiczne przeprowadzanie cyberataków.

"Systemy te są w stanie wykonywać złożone zadania wymagające planowania i rozumowania oraz mogą elastycznie ze sobą współdziałać„, czytamy w raporcie. „Po ustaleniu zadania opracowują strategię z celami szczegółowymi, ucząc się nowych umiejętności.

Mogą jednak wystąpić „niezamierzone konsekwencje”, w tym „przekierowanie” informacji i zasobów w celu osiągnięcia celów.

Przyszłe innowacje w oprogramowaniu i sprzęcie umożliwią sztucznej inteligencji „interakcję ze światem fizycznym” za pośrednictwem robotów i samochodów autonomicznych. „Te autonomiczne systemy będą gromadzić duże ilości danych, które zostaną przekazane w celu udoskonalenia ich możliwości” – czytamy w raporcie.

Zapisz się do naszego newslettera!

Sztuczna inteligencja: szansa czy katastrofalna broń? Niezawodna broń nawet dla terrorystów

| Aktualności ', EVIDENCE 1 |