Yapay zekâyı güvenli kılmak neden zor?

1. Yapay zekânın ne olduğunda uzlaşmak

Avrupa Parlamentosu’nun yapay zekânın tanımını yapması iki yılını aldı: “İnsanlar tarafından verilen görevleri yerine getirmek için içerik, tahmin, tavsiye veya kararlar gibi çıktılar üreterek etkileştiği çevreleri dönüştürebilen yazılımlar.”

Bu hafta oylanacak Yapay Zekâ Yasası, türünün ilki. Yasa, şirketlerin gönüllü iş birliğinin ötesine geçerek, uyulması gereken kurallar getirecek.

2. Küresel bir anlaşmaya varmak

Eski İngiltere Yapay Zekâ Ofisi Başkanı Sana Kharaghani, teknolojinin sınır tanımadığını vurguluyor.

BBC’ye konuşan Kharaghani “Bu konuda uluslararası iş birliğine ihtiyacımız var. Bunun zor olacağını biliyorum” diyor ve ekliyor:

“Bu ulusal bir mesele değil. Bu tür teknolojiler tek bir ülkenin sınırları içinde kalmıyor.”

Fakat Birleşmiş Milletler türünden bir uluslararası yapay zekâ düzenleme kurumu yaratmak için ortada hiçbir plan yok.

Dahası bu konuda farklı ülkelerin farklı planları var:

Avrupa Birliği, yapay zekâ konusunda en sert düzenlemeleri öneriyor. Buna göre yapay zekâ ürünleri, etkileri bakımından farklı seviyelerde ele alınacak; örneğin istenmeyen e-posta filtrelemek için kullanılan yapay zekâ daha az düzenlemeye tabi olurken, hastalara kanser teşhisi koymayı kolaylaştıracak yapay zekâlar daha fazla denetlenecek.

İngiltere yapay zekâ düzenlemelerini mevcut kurumlara eklemlemeyi tercih edenlerden. Bu yöntemde örneğin kendisine yapay zekânın ayrımcılık yaptığını düşünen bir kişi, yeni bir kurum yerine ülkede halihazırda ayrımcılığı denetleyen Eşitlikler Komisyonu’na başvurabilecek.

ABD’de ise yalnızca şirketlerin gönüllü bir şekilde dahil olduğu programlar var. Yakın süre önce yapay zekâ üzerine yapılan bir oturumda siyasetçiler, bu alandaki düzenlemelerin yetersiz kaldığına dair endişelerini dillendirdi.

Çin de şirketlerin yapay zekâ kullandıkları yerlerde ve uygulamalarda bildirimde bulunmasını zorunlu kılmayı düşünüyor.

3. Kamuoyuna güven vermek

IBM’in Avrupa Birliği ile ilişikilerinin başında bulunan Jean-Marc Leclerc “İnsanların bir şeyi kullanması için önce güvenmesi lazım” diyor.

Yapay zekânın insanların hayatını inanılmaz ölçüde iyileştirebileceği alanlar var. Halihazırda antibiyotikler keşfetmek, felçli insanları yürütmek ve iklim değişikliği, pandemi gibi küresel sorunlara çözüm bulmak için kullanılabiliyor.

Peki ya iş başvurularını değerlendirmek veya birinin suça meyilli olup olmadığını ölçmek için kullanılırsa?

Avrupa Parlamentosu her bir yapay zekâ ürününün riskleri hakkında kamuoyunun bilgilendirilmesini planlıyor.

Bu kuralı ihlal edenler 30 milyon euro veya küresel cirolarının yüzde 6’sı miktarında cezaya maruz kalabilir.

Ama yapay zekâ geliştiricileri, ürünlerinin nasıl kullanılabileceğini önceden tahmin edebilir mi?

4. Kuralları kimin yazacağına karar vermek

Bugüne kadar yapay zekânın düzenlenmesi işi genellikle onu geliştirenlerin insafına bırakılmıştı.

ChatGPT’yi yaratan OpenAI’ın yöneticisi Sam Altman’a göre büyük şirketler, potansiyel riskleri azaltmak için bu alanda düzenlemeler yapılması gerektiğini kabul ediyor.

Peki bu şirketler düzenlemeleri yapma sürecine fazlasıyla dahil olurlarsa, insanların çıkarlarını kendi kârlarının önüne koyabilecekler mi?

Şu anda bu düzenlemeleri hazırlamakta olan siyasetçilerle içli dışlı olmak istediklerini tahmin edebilirsiniz.

Son dakika biletleri satan Lastminute.com’un kurucusu Barones Lane-Fox, bu alanda düzenleme yaparken şirketler dışındaki aktörlerin de dinlenmesi gerektiğini düşünüyor:

“Sivil toplumu, akademiyi ve bu dönüşümden etkilenen kişileri de sürece dahil etmemiz lazım.”

5. Hızlı hareket edebilmek

ChatGPT’ye milyarlarca dolar yatıran Microsoft “angaryayı ortadan kaldırmak istediklerini” söylüyor.

ChatGPT insan elinden çıkmış gibi gözüken metinler üretebiliyor fakat OpenAI’dan Sam Altman yine de bunun “bir kişi değil bir araç” olduğunu vurguluyor.

Sohbet robotlarının ana amacı işçileri daha verimli kılmak.

Bazı sektörlerde yapay zekânın yeni iş imkanları yaratma ve müthiş bir asistan olma kapasitesi var.

Ama bazı sektörlerde de iş kaybına yol açıyor.

İngiliz telekomünikasyon devi BT, 10 bin çalışanının işini yapay zekâya yaptıracağını açıkladı.

Altı ay önce piyasaya çıkan ChatGPT ise günümüzde makaleler yazabiliyor, insanların tatil planlarını hazırlayabiliyor ve profesyonel sınavları geçebiliyor.

Bu tür dil bazlı modeller günümüzde inanılmaz bir hızla gelişiyor.

Avrupa Birliği’nin Yapay zekâ Yasası’nın 2025’e kadar yürürlüğe girmesi bekleniyor.

AB Teknoloji Komiseri Margrethe Vestager’e göre bu çok geç.

Vestager bu yüzden ABD ile birlikte, şirketlerin o zamana kadar gönüllü olarak kullanabilecekleri bir kod hazırlıyor. Bu kod birkaç hafta içinde tamamlanabilir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir