Düzenleme yavaşlarken Yapay Zeka çalışır

Massimiliano D'Elia

Teknolojik devrimin başlamasından bir yıl sonra, incelenen sistemlerin uygulamalarının yapay zeka (AI) algoritmaları aracılığıyla sunduğu yeni fırsatlarla bağlantılı olarak, dezenformasyon ve teknoloji üzerindeki kontrolün kaybı gibi riskler de dahil olmak üzere etik ve güvenlik kaygıları vurgulanıyor. Aşağıdaki ayrılık söylentiler Yapay zeka alanında lider bir şirket olan OpenAI içindeki hayırseverlik ve ticari bileşenler arasındaki zorla uzaklaştırmalar, sıradan vatandaşları, büyük şirketleri ve aynı zamanda yapay zekanın terörist gruplar tarafından kötü niyetli kullanımından kaçınmaya çalışan devletleri de etkileyen bu devrimin doğrudan bir sonucudur. siber suçlular.

Sektörün ilk şirketi Open AI'nin kurucusu, Sam AltmanBaşlangıçta hedefe yönelik kar yok, dikkati şu yöne kaydırdı olağanüstü yeni pazar fırsatları nedeniyle. İlk platformun başarısı ChatGPT aslında, başlangıçtaki amacı düzenlenmemiş kapitalizmden kaçınmak olmasına rağmen, kendisini kârı maksimuma çıkarmaya kararlı bir gerçekliği yönetirken bulan bir yapının çelişkilerini güçlendirdi.

Piyasada ChatGPT adı verilen yenilikçi bir yapay zeka modeli öneren ilk kuruluş olan OpenAI, bu nedenle hem hayırseverlik bileşeninin hem de ticari-ticari bileşenin üyelerinden oluşan yönetim kurulu içinde kanlı bir iç mücadeleyle karşı karşıya kaldı. . Etik ve kârla ilgili çelişkiler ve farklı görüşler güçlü bir şekilde ortaya çıktı. Özellikle Altman, etik kaygılara rağmen dengeyi yavaş yavaş Yapay zekanın sunduğu olağanüstü pazar fırsatlarının farkındayız.

OpenAI'deki son iç mücadele, ticari ve iş odaklı bileşenin yapay zekanın geleceğini tanımlamaya yönelik ilk savaş olarak tanımlanıyor. ilişkisel ve kar amacı gütmeyen kuruluşları geride bıraktı.

Ancak artık 2024 seçimlerinde dezenformasyon riski ve kıyamet senaryoları tehlikesi gibi acil sorunlara çözüm bulmamız gerekiyor. (Süper zekayla donatılmış) makinenin insan kararlarına galip gelebileceği aşırı koşullar, ortak görüşe göre evrensel düzenleyici frenlerin uygulanması gereken bu keşfedilmemiş teknoloji karşısında şüpheci kalanlar tarafından defalarca dile getirilen Terminatör konseptini güçlendiriyor. Geri dönüşü olmayan öngörülemeyen durumlardan kaçının.

Şirketler ve hükümetler arasındaki işbirlikçi çabalara rağmen, yeterli savunma olmadan bir sonraki önemli seçim tarihlerine (ABD, AB ve Tayvan) doğru gidiyoruz. Örneğin Avrupa'da, yapay zeka modellerinden yararlanan platformların geliştirilmesini ve kullanımını düzenlemesi gereken bir belge olan Yapay Zeka Yasası üzerinde hâlâ tartışmalar var. Geleneksel ve yeni ortaya çıkan süper güçler arasındaki yoğun çatışmanın ardından yeni bir dünya düzeninin kurulduğu bir dönemde, vatandaşların mahremiyetiyle ilgili sorunlar ve yüz tanımanın gelişigüzel kullanımı arasında yol yokuş yukarıdır.

düzenlemeye çalışıyoruz

Avrupa Birliği. Avrupa Birliği, “Yapay Zeka Yasası” aracılığıyla Yapay Zekanın (AI) düzenlenmesinde kilit bir oyuncu olmayı taahhüt etmiştir. 6 Aralık 2023'te yapılması planlanan bir sonraki üçleme, metnin 2023 sonuna kadar onaylanma olasılığının belirlenmesi açısından hayati önem taşıyor. "Hiroşima Yapay Zeka Süreci”G7 liderleri, yapay zeka geliştiricileri için on bir yol gösterici ilkeyi ve Davranış Kurallarını duyurdu.

Yol gösterici ilkeler, gelişmiş yapay zeka sistemlerinin geliştirilmesinde yer alan geliştiricilere, akademik kurumlara ve kamu ve özel sektörlere rehberlik sağlamayı amaçlamaktadır. Bunlar, riskleri değerlendirmeye ve azaltmaya yönelik önlemleri, sistem yetenekleri ve sınırlamalarına ilişkin şeffaflığı ve riske dayalı yönetişim politikalarının desteklenmesini içerir. Davranış Kuralları, model şeffaflığı, raporların yayınlanması ve sivil toplumda bilgi paylaşımı konularına özellikle vurgu yaparak, yapay zeka geliştiricileri için pratik rehberliği detaylandırıyor.

Gönüllülük esasına dayalı olarak uygulanan Davranış Kuralları, anında uygulanabilir olması ve küresel çapta yaygınlaşabilmesi nedeniyle büyük önem taşıyor. Yapay Zeka Yasası'ndan farklı olarak Kurallar, şirketlerin artan dikkat ve hesap verebilirlik değerlendirmeleri bağlamında yapay zeka düzenlemelerini etkileyebilir.

Amerika Birleşik Devletleri. Başkan Joe Biden tarafından 30 Ekim 2023'te yayınlanan ABD Başkanlık Kararnamesi, Yapay Zekanın (AI) güvenli kullanımına ilişkin önemli konuları ele alıyor. Geliştiricilere şeffaflık dayatıyor, test sonuçlarının hükümetle paylaşılmasını ve geliştiricilerin görevlendirilmesini zorunlu kılıyor. Ulusal Standartlar ve Teknoloji Enstitüsü Güvenli yapay zeka modelleri için standartları tanımlama görevi. Ayrıca, görevlendirmeler yaparak yanlış bilgilerin önlenmesine odaklanır. Ticaret Bakanlığı Yapay zeka tarafından oluşturulan içeriğin orijinalliğini sağlamak için teknik kılavuz.

Karar aynı zamanda şu soruna da değiniyor: bilişsel önyargı, hassas sektörlerde ayrımcılığın önlenmesine çalışıyoruz. Herhangi bir önyargı veya eşitsizliği belirlemek için yapay zeka sistemlerinde kullanılan kriterlerin gözden geçirilmesi gerekir. Ayrıca teknolojilerin istihdam ve işleme üzerindeki etkisine ilişkin derinlemesine bir çalışma yapılması bekleniyor. En iyi uygulama Potansiyel zararı azaltmak ve faydaları en üst düzeye çıkarmak.

Üç uluslu anlaşma. Ayrıca İtalya, Fransa ve Almanya arasında 19 Kasım 2023 tarihinde üretken yapay zekadaki temel modellerin düzenlenmesine ilişkin resmi olmayan bir anlaşma bulunmaktadır. Bu anlaşma, Yapay Zeka Yasasının risk temelli yaklaşımından farklı olarak, davranış kuralları aracılığıyla zorunlu öz düzenlemeyi önermektedir. Yapay zeka geliştiricilerinden "taslak" hazırlamaları isteniyormodel kartlarıModellerin yetenekleri ve sınırlamaları hakkında bilgi içeren. Bir AI yönetişim organı bu davranış kurallarının uygulanmasını izleyecektir. Önemli olan, "ilk ihlal" için yaptırım öngörmeyen, yaptırımları yalnızca davranış kurallarının sistematik ihlalleri için saklayan noktadır. Bu anlaşma, üye devletler arasındaki Yapay Zeka Yasasına ilişkin müzakereleri etkileyebilir ve potansiyel olarak yasanın yürürlüğe girmesini geciktirebilir.

Düzenleme yavaşlarken Yapay Zeka çalışır

| OPINIONI |