Đạo đức và Trí tuệ nhân tạo

(của Michele Gorga) Bằng cách đánh giá con đường của nhân loại từ nguồn gốc của nó cho đến ngày nay, chúng ta có thể đạt được một điều chắc chắn rằng thực tế của sự phát triển công nghệ của chúng ta không phải là tuyến tính, mà là hàm mũ và điều này là nhờ vào quy luật cơ bản mang tên luật gia tốc lợi nhuận. Một định luật, cái sau, chỉ có thể hiểu được nếu chúng ta nối các điểm trên một mặt phẳng Descartes: trên trục x (ngang), chúng ta đặt thời gian, trên trục tọa độ (dọc), y là mức độ tiến bộ công nghệ đạt được vào một ngày nhất định. Tuy nhiên, kết quả không phải là một đường thẳng nghiêng nhiều hay ít mà là một đường cong hàm mũ và dựa trên xu hướng mà chúng ta có thể suy ra từ nó, chúng ta có thể tin rằng trong một vài năm tới nó sẽ trở thành một đường thẳng song song với tọa độ. Vì vậy, sẽ không còn bất kỳ điểm tiếp xúc nào với tọa độ và hậu quả là chúng ta sẽ không còn biết abscissa ở đâu tại mỗi thời điểm và do đó, chúng ta sẽ lao vào điều kiện mà vật lý lượng tử gọi là điểm kỳ dị.

Theo "điểm kỳ dị", chúng tôi muốn nói đến điều kiện mà bốn lực cơ bản của tự nhiên hoạt động, đó là: lực hấp dẫn; điện từ học; lực mạnh liên kết các proton trong hạt nhân trong nguyên tử; lực yếu chi phối nguyên tắc phân rã phóng xạ. Chúng ta có thể xác định các lực này bằng bốn chữ cái tương ứng là G của di truyền học; R của người máy; N của công nghệ nano; cái tôi của trí tuệ nhân tạo.

Tiếp tục theo thứ tự, điểm G của "di truyền học" cho phép chúng ta xác định, của tất cả các sinh vật, mã di truyền sẽ cho phép chúng ta cải thiện giống nòi theo khuôn mẫu mà tại một thời điểm lịch sử nhất định, đạo đức và ý thức hệ sẽ cho phép hạ cánh và có thể trở thành, đối với con người, những gì anh ta muốn trở thành, bất kể anh ta là gì, và do đó, các sinh vật biến đổi gen trên cơ sở đạo đức và chính trị sẽ cho phép trong giai đoạn lịch sử tương đối. Chuyển sang chữ R của "Robotics", chúng ta phải hiểu, không phải robot ngày nay là gì, mà là những cỗ máy tiên tiến sẽ có cả kiến ​​thức về không gian và thời gian và có thể đảm nhận các khía cạnh của con người, Android, có khả năng nhận thức cảm xúc [7 ]. Vì vậy, người máy không chỉ là cỗ máy điều khiển trí thông minh hay trợ lý công việc, mà còn là những thực thể có khả năng liên quan đến các hoạt động nghề nghiệp với Con người. Hậu quả mà người máy sẽ gây ra đối với xã hội và chính trị sẽ là các phong trào xã hội nhằm công nhận các quyền công dân đối với Android và nói chung đối với mọi tạo vật, đối với thế giới động thực vật, đối với môi trường, v.v., cũng trong trường hợp này, đạo đức và chính trị sẽ buộc phải có lập trường.

Chuyển sang N cho "công nghệ nano" chúng ta có nghĩa là công nghệ vi mô vô tận, các phần tử lỏng có khả năng thay đổi ngay bên ngoài và bên trong của thực tế bằng cách thay thế và sửa đổi chính không gian tồn tại của con người. Cuối cùng, ý của tôi về "trí tuệ nhân tạo", chúng tôi muốn nói đến những gì trong lịch sử có thể được so sánh với Chén Thánh, - theo nghĩa AI như một thuật toán của sự sống và tri thức vĩnh cửu - hay Deus ex-machina [8], công nghệ nguy hiểm nhất và, cho các tình huống tương lai, một công nghệ xâm lấn đến mức phá hoại hệ thống các giá trị và nền tảng của nền văn minh nhân loại và của con người như nó đã được xác định trong lịch sử theo thời gian.

Trên thực tế, Trí tuệ nhân tạo dựa trên các thuật toán có thể thống trị, kiểm soát, chủ nghĩa ca ngợi, chủ nghĩa tiêu dùng, cạnh tranh, tất cả các công nghệ đang hoàn thiện cho sự già đi của con người và có thể làm suy yếu sự tồn tại của nhân loại. Và chính xác là trí tuệ nhân tạo, hơn bất kỳ công nghệ nào khác, đang phát triển nhanh chóng trong xã hội của chúng ta và do đó đang thay đổi cuộc sống của chúng ta bằng cách cải thiện các dịch vụ chăm sóc sức khỏe, tăng hiệu quả của nông nghiệp, giúp giảm thiểu biến đổi khí hậu và cải thiện hiệu quả của hệ thống sản xuất thông qua phân tích dự báo với sự gia tăng các khía cạnh an toàn. Tuy nhiên, đồng thời, trí tuệ nhân tạo mang lại những rủi ro mới liên quan đến các cơ chế ra quyết định không rõ ràng, có thể có phân biệt đối xử dựa trên giới tính, xâm nhập vào cuộc sống riêng tư hoặc sử dụng các thiết bị được sử dụng cho mục đích phạm tội. Công nghệ EI rất mạnh mẽ vì nó đã trở nên trong suốt và tất cả chúng ta đều dựa vào các thiết bị mà giờ đây chúng ta có thể định nghĩa là bộ phận giả công nghệ và nhận thức của chúng ta. Vì lý do này, chúng ta trở nên dễ bị tổn thương hơn, từ những người sử dụng công nghệ cho các mục đích phi đạo đức hoặc cho các mục đích tội phạm.

Đây là những lý do dẫn đến sự cần thiết phải có sự phối hợp của Châu Âu đối với kỷ luật của IE và điều này là do các tác động về con người và đạo đức, vốn có trong trí tuệ nhân tạo, với nhu cầu phản ánh sâu sắc để cải thiện việc sử dụng lớn được đưa ra để đổi mới, do sự cần thiết của một kỷ luật pháp lý bắt buộc và các khoản đầu tư nhằm đạt được mục tiêu kép, một mặt là thúc đẩy việc sử dụng rộng rãi AI và mặt khác, để giảm thiểu tất cả những gì có thể rủi ro liên quan đến công nghệ kỹ thuật số mới.

Đây là những lý do sâu xa cơ bản cho các cuộc trao đổi vào ngày 25 tháng 2018 năm 7 và ngày 2018 tháng XNUMX năm XNUMX, trong đó Ủy ban châu Âu đã trình bày tầm nhìn của mình về trí tuệ nhân tạo (AI), được rửa tội là "AI 'được tạo ra trong đạo đức của châu Âu, an toàn và tiên phong ”.

Tầm nhìn của Ủy ban dựa trên ba trụ cột: 1) tăng cường đầu tư công và tư vào AI để thúc đẩy sự hấp thụ của nó, 2) chuẩn bị cho sự thay đổi kinh tế - xã hội và 3) đảm bảo một khuôn khổ pháp lý và đạo đức phù hợp để củng cố các giá trị của châu Âu. Để hỗ trợ việc thực hiện tầm nhìn này, Ủy ban đã thành lập Nhóm chuyên gia cấp cao về trí tuệ nhân tạo, một nhóm độc lập có nhiệm vụ soạn thảo hai tài liệu: 1) hướng dẫn đạo đức cho AI và 2) khuyến nghị đầu tư và chính trị.

Đối với nhóm, liên quan đến tài liệu về hướng dẫn đạo đức cho AI, cần lưu ý rằng các hệ thống AI, mặc dù mang lại lợi ích cụ thể cho cá nhân và xã hội, nhưng vẫn tiềm ẩn rủi ro và có tác động tiêu cực, thậm chí khó dự đoán. , ví dụ về dân chủ, pháp quyền, công bằng phân phối hoặc chính trí óc con người. Đó là lý do tại sao, theo nhóm chuyên gia, cần phải thực hiện các biện pháp thích hợp để giảm thiểu rủi ro, tương xứng với mức độ của chúng và xem xét các phương pháp để đảm bảo thực hiện chúng. Trước hết, đối với các chuyên gia, cần khuyến khích nghiên cứu và đổi mới để hỗ trợ đánh giá các hệ thống AI và đạt được sự tuân thủ các yêu cầu, phổ biến kết quả, đào tạo một thế hệ chuyên gia mới về đạo đức AI. Do đó, thông báo rõ ràng cho các bên liên quan về khả năng và hạn chế của hệ thống. Minh bạch, tạo điều kiện thuận lợi cho việc truy xuất nguồn gốc và xác minh của các hệ thống AI, đặc biệt trong các bối cảnh hoặc tình huống quan trọng, trở nên cần thiết cũng như thu hút các bên liên quan trong toàn bộ vòng đời của hệ thống AI và thúc đẩy đào tạo và giáo dục để tất cả các bên liên quan được đào tạo và thông báo về AI đáng tin cậy. Bắt đầu từ điều sau, đó là sự cần thiết phải có một AI đáng tin cậy, cần nhấn mạnh rằng đối với con người và công ty, độ tin cậy là điều kiện tiên quyết cho sự phát triển, phân phối và sử dụng hệ thống. Nếu không, việc sử dụng các công nghệ liên quan có thể bị cản trở và do đó các lợi ích kinh tế và xã hội có thể sẽ bị chậm lại. Do đó, sự tự tin trong việc phát triển, phân phối và sử dụng các hệ thống AI không chỉ liên quan đến các thuộc tính nội tại của công nghệ mà còn cả các phẩm chất của hệ thống kỹ thuật và xã hội. Do đó, nhóm làm việc đã thiết lập, trong tài liệu đầu tiên của mình, các hướng dẫn cho một trí tuệ nhân tạo đáng tin cậy với điều kiện rằng nó phải dựa trên ba thành phần.

Chúng đã được xác định: a) về tính hợp pháp, AI là Trí tuệ nhân tạo tuân theo tất cả các luật và quy định áp dụng trong một vấn đề cụ thể; b) đạo đức, AI được hiểu là tập hợp các quy tắc của quy tắc đạo đức và các nguyên tắc và giá trị đạo đức liên quan cần luôn ghi nhớ; c) tính mạnh mẽ, từ quan điểm kỹ thuật và xã hội vì ngay cả khi có ý định tốt nhất, các hệ thống AI vẫn có thể gây ra thiệt hại không chủ ý. Giờ đây, mỗi thành phần nói trên đều cần thiết nhưng vẫn chưa đủ cho một Trí tuệ nhân tạo đáng tin cậy. Ba thành phần này chủ yếu nhằm vào các bên liên quan và là những chỉ dẫn ràng buộc về cách các nguyên tắc đạo đức nói trên có thể được thực hiện trong các hệ thống xã hội và kỹ thuật.

Bắt đầu từ cách tiếp cận dựa trên quyền cơ bản, trước hết, các nguyên tắc đạo đức và các giá trị liên quan được xác định phải được tôn trọng trong quá trình phát triển và phân phối và sử dụng các hệ thống AI, sau đó chuyển sang các chỉ dẫn về cách tạo ra AI đáng tin cậy thông qua việc phân loại bảy yêu cầu mà hệ thống AI cần đáp ứng và các phương pháp kỹ thuật và phi kỹ thuật triển khai có thể được sử dụng và được xác định: 1) - trong sự can thiệp và giám sát của con người; 2) - về tính mạnh mẽ về kỹ thuật và bảo mật, 3) - về quyền riêng tư và quản trị dữ liệu, 4) - trong minh bạch, 5) - đa dạng, không phân biệt đối xử và công bằng, 6) - xã hội và môi trường hạnh phúc và 'trách nhiệm giải trình. Cuối cùng, nhóm chuyên gia đã đề xuất một danh sách kiểm tra để đánh giá độ tin cậy của AI có thể giúp đưa bảy yêu cầu được liệt kê ở trên vào hoạt động. Cuối cùng, trong phần cuối cùng của tài liệu, các ví dụ về các cơ hội thuận lợi và mối quan tâm nghiêm trọng mà các hệ thống AI nêu ra, mặc dù nhận thức rằng châu Âu có lợi thế độc quyền, xuất phát từ cam kết đặt người dân vào trung tâm của các hoạt động riêng.

Michele Gorga, luật sư và thành phần đài quan sát điều phối các AIDR DPO

Đạo đức và Trí tuệ nhân tạo

| NEWS, SỰ KIỆN 3 |