Trí tuệ nhân tạo: cơ hội hay vũ khí thảm họa? Vũ khí không thể sai lầm ngay cả đối với những kẻ khủng bố

bởi Massimiliano D'Elia

Mỗi tối, trên chương trình truyền hình "Striscia la Notizia" của Antonio Ricci, ​​chúng tôi xem, thưởng thức, lãnh đạo các chính trị gia và tổ chức tung hứng những điệu nhảy khó tin trong khi hát những bài hát kỳ quái. Các nhân vật chính là những nhân vật lừng lẫy như Thủ tướng Ý đương nhiệm, Tổng thống nước Cộng hòa và các nhà lãnh đạo phe đối lập khác nhau. Chính họ, còn sống và khỏe mạnh, là những người vui vẻ lan truyền những điều vô nghĩa trên TV. 

Giá trị của hiện vật là phần mềm sử dụng những điều cơ bản của Trí tuệ nhân tạo (AI) để thực hiện một phép màu truyền hình thực sự. Các ứng dụng tương tự cũng có tính phí trên mạng xã hội (Tik Tok). Tuy nhiên, chúng ta mới chỉ đang ở giai đoạn đầu của công nghệ đổi mới và thú vị này. Tuy nhiên, công nghệ này cần được "xử lý cẩn thận" do những ảnh hưởng mà nó có thể gây ra trong tương lai không xa. Vì lý do này, chúng ta ngày càng nói nhiều hơn về sự cần thiết phải áp dụng quy tắc đạo đức trong quá trình nghiên cứu, phát triển và sử dụng các ứng dụng trong đó AI có thể được yêu cầu thực hiện một hành động vật lý có khả năng can thiệp vào thế giới thực.

Ví dụ, mọi người đều đồng ý rằng các thiết bị được trang bị AI vẫn phải được con người cho phép trước khi thực hiện hành động gây chết người (trong lĩnh vực quân sự thuần túy). Tuy nhiên, tiên đề trở nên rút gọn khi đối mặt với một công nghệ mà về mặt lý thuyết sẽ có thể học hỏi, phát triển và trên hết là khiến đối thủ bối rối, những người một ngày nào đó có thể trùng hợp với người chịu trách nhiệm kiểm soát nó.  

Một số khả năng AI mô phỏng

Tại Trung Quốc, tại một trường đại học danh tiếng (Đại học Hàng không và Du hành vũ trụ Nam Kinh), họ đã phát triển một chương trình mô phỏng trận chiến trên không giữa hai máy bay chiến đấu thế hệ mới nhất: một chiếc do con người điều khiển với tất cả những hạn chế về thể chất và tâm lý, chiếc còn lại do 'AI' điều khiển. Chỉ chưa đầy XNUMX giây ở tốc độ siêu thanh, tiêm kích AI dễ dàng bắn hạ đối thủ, bắn một quả tên lửa “ngược lại”, bất chấp mọi định luật vật lý đã biết.

Trong mô phỏng trên máy tính, máy bay siêu thanh đã chiến đấu với máy bay phản lực địch bay với tốc độ Mach 1.3, gần bằng tốc độ tối đa của F-35. Phi công của máy bay siêu thanh được lệnh bắn hạ kẻ thù. Bản năng đáng lẽ phải hướng phi công về phía mục tiêu, nhưng phi công, được dẫn dắt bởi Trí tuệ nhân tạo, đã tiến đến một vị trí bất ngờ, bỏ xa máy bay địch và bắn một tên lửa lùi. Tên lửa bắn trúng đối thủ ở cách xa 30 km, kết thúc trận chiến chỉ trong vài giây.

Sau những cân nhắc và lo ngại, các quốc gia, ít nhất là về khả năng răn đe quân sự của chính họ, đã triển khai các chương trình tương lai, chẳng hạn như máy bay thế hệ thứ sáu sẽ được hỗ trợ trong nhiệm vụ của họ bằng các thiết bị được dẫn đường bởi các thực thể được trang bị AI. Từ quan điểm này, các chính phủ khác nhau đang cố gắng điều chỉnh càng nhiều càng tốt cách tiếp cận văn hóa, xã hội và hiệu quả đối với công nghệ mới và chưa được khám phá này.

đồ sứ

Yêu cầu bảo mật cơ bản cho dịch vụ trí tuệ nhân tạo tổng hợp là tiêu đề của một tài liệu được phát hành gần đây dưới dạng bản nháp bởiCơ quan quốc gia Trung Quốc cho Tiêu chuẩn hóa bảo mật thông tin quy định các thông số kỹ thuật mà nhà cung cấp phải tuân thủ dịch vụ dựa trên AI tổng hợp. Tài liệu này, mặc dù vẫn chưa phải là phiên bản cuối cùng, nêu bật cách tiếp cận của chính phủ Trung Quốc trong việc quản lý tác động của AI đối với các mối quan hệ chính trị và xã hội. Nó không chỉ bao gồm các quy tắc pháp lý mà còn cả các quy tắc kỹ thuật, có khả năng mang lại mức độ hiệu quả cụ thể cao hơn vì chúng phải được tôn trọng. 1 để cung cấp một dịch vụ.

Hoa Kỳ

Tổng thống Mỹ, Joe Biden dự kiến ​​​​sẽ ký một văn bản vào tuần tới đề cập đến những tiến bộ nhanh chóng của trí tuệ nhân tạo, tạo tiền đề cho việc Washington áp dụng AI như một công cụ trong kho vũ khí an ninh quốc gia của mình. Báo cáo chỉ rõ một điều kiện thiết yếu là các công ty phải phát triển công nghệ theo cách an toàn. Do đó, tài liệu tìm cách thiết lập các hướng dẫn về việc sử dụng AI của các cơ quan liên bang, đồng thời khai thác sức mua của chính phủ để hướng các công ty hướng tới những gì họ coi là thực tiễn tốt nhất. Nhà Trắng cũng tổ chức một sự kiện mang tên “AI an toàn, bảo mật và đáng tin cậy”.

Do đó, chính quyền Mỹ cần phải quản lý vấn đề này để phát triển các khả năng quân sự mới và sáng tạo nhằm đảm bảo khả năng răn đe toàn cầu đáng tin cậy theo thời gian. Nó được lên kế hoạch sử dụng Viện Tiêu chuẩn và Công nghệ để xác định các tiêu chuẩn ngành để thử nghiệm và đánh giá hệ thống AI. Một điều kiện khác là sự giám sát của chính phủ đối với các cam kết AI được các công ty lớn của Mỹ đưa ra gần đây.

Trong số một số lĩnh vực được chính phủ Hoa Kỳ xác định có các mối đe dọa đối với an ninh mạng sau sự ra đời của trí tuệ nhân tạo. 

Người ta kỳ vọng rằng trí tuệ nhân tạo có thể trở thành một nguồn tài nguyên quan trọng để xác định các mối đe dọa bằng cách phân tích các lỗ hổng và nỗ lực Lừa đảo, phương tiện truyền thông xã hội, email và trò chuyện. Nó cũng có thể hữu ích trong việc tìm kiếm các mẫu trong các báo cáo tình báo mà con người có thể bỏ sót. Các nhà nghiên cứu bảo mật và quan chức tình báo cho rằng AI có thể là một công cụ cần thiết để cải thiện đáng kể khả năng phòng thủ mạng của các doanh nghiệp, cơ sở hạ tầng quan trọng, cơ quan chính phủ và cá nhân. Nhưng nó cũng có thể được các chính phủ nước ngoài và tin tặc tội phạm sử dụng làm vũ khí để viết phần mềm độc hại, tự động hóa các nỗ lực xâm nhập dễ dàng hơn và phản hồi nhanh chóng trước các biện pháp bảo vệ an ninh ngày càng phát triển.

Anh

Trí tuệ nhân tạo có thể giúp bọn khủng bố phát triển vũ khí hủy diệt hàng loạt, lời cảnh báo được nêu trong tài liệu được soạn thảo cho Thủ tướng Rishi Sunak nhân dịp ông phát biểu tới các Phòng. Phân tích của báo cáo giải thích trí tuệ nhân tạo, đồng thời mang lại những cơ hội quan trọng, “cũng liên quan đến những mối nguy hiểm và nỗi sợ hãi mới“. Tài liệu của chính phủ, được viết với sự hỗ trợ của 50 chuyên gia, tuyên bố rằng đến năm 2025, AI có thể được sử dụng để thực hiện các hành vi gian lận và tấn công mạng. Tài liệu giải thích rằng AI sẽ có tiềm năng “tăng cường khả năng khủng bố” trong việc phát triển vũ khí, lên kế hoạch tấn công và tấn công. trong sản xuất tuyên truyền. Phạm vi rủi ro nghiêm trọng nhất có thể xuất hiện vào năm 2030 bao gồm “thông tin sai lệch hàng loạt” và một "cuộc khủng hoảng" liên quan đến việc làm sau việc sử dụng rộng rãi AI trong các công việc thủ công nơi hiện đang dự kiến ​​​​sử dụng con người.

Tuy nhiên, đồng thời, AI sẽ dẫn đến “kiến thức mới, cơ hội mới để tăng trưởng kinh tế, những tiến bộ mới về năng lực của con người và khả năng giải quyết các vấn đề từng được coi là không thể giải quyết được”. 

Tài liệu cũng nêu rõ rằng hiện tại không có đủ bằng chứng để loại trừ mối đe dọa đối với nhân loại từ AI. 

Báo cáo nhấn mạnh đến năm 2030, các công ty công nghệ có thể phát triển một “siêu trí tuệ” thiết bị nhân tạo có khả năng thực hiện các nhiệm vụ phức tạp và đánh lừa con người, điều này có nguy cơ "thảm khốc". Một ví dụ khác giải thích làm thế nào một công ty có thể đạt được sự thống trị về mặt công nghệ gây bất lợi cho các đối thủ cạnh tranh toàn cầu. Báo cáo cũng cảnh báo rằng AI có thể “làm trầm trọng thêm những rủi ro mạng hiện có” nếu sử dụng không đúng cách, chẳng hạn như bằng cách tự động phát động các cuộc tấn công mạng.

"Các hệ thống này có khả năng hoàn thành các nhiệm vụ phức tạp đòi hỏi phải lập kế hoạch, suy luận và có thể tương tác với nhau một cách linh hoạt.“, báo cáo viết. “Sau khi đặt ra nhiệm vụ, họ sẽ phát triển chiến lược với các mục tiêu phụ, học các kỹ năng mới.”

Tuy nhiên, “những hậu quả không lường trước được” có thể xảy ra, bao gồm cả việc “chuyển hướng” thông tin và nguồn lực để hoàn thành mục tiêu.

Sự đổi mới trong tương lai về phần mềm và phần cứng sẽ cho phép AI “tương tác với thế giới vật chất” thông qua robot và xe tự lái. Báo cáo cho biết: “Các hệ thống tự trị này sẽ thu thập lượng lớn dữ liệu, dữ liệu này sẽ được chuyển sang kênh để tinh chỉnh khả năng của chúng”.

Theo dõi bản tin của chúng tôi!

Trí tuệ nhân tạo: cơ hội hay vũ khí thảm họa? Vũ khí không thể sai lầm ngay cả đối với những kẻ khủng bố

| NEWS, SỰ KIỆN 1 |