Stephen Hawking ve Elon Musk bir konuda hemfikir ise onlara kulak asmamak çılgınlık olurdu. Fakat insanlık gerçekten diğer zeki varlıklardan çekinmeli mi?

Stephen Hawking hem uzaylılar hem de süper yapay zekaların insan ırkı için bir tehdit oluşturabileceğini düşünürken, Musk’ın ikinci ihtimali önlemek için milyonlarca dolar yatırım yaptığı biliniyor.

Amerikan aksiyon sineması, sıra dışı düşmanlar ve zorluklar yaratmakta, birbirlerine benzer distopik gelecek senaryoları inşa etmekte usta. Çağımızın en büyük dahilerinden bazılarının iyi düşünülmüş teorileri, şüphesiz Terminatör benzeri bilim-kurgu öğelerinden daha kompleks olsa gerek. Apple’ın eş kurucusu, Apple I ve II’nin mimarı Steve ‘Woz’ Wozniak da yapay zekanın askeri alanda kullanımından çekinerek onlara katılıyor.

Süper yapay zekaların hayatın bir parçası olduğu gelecekten umutlu olanların sayısı göz ardı edilebilecek cinsten değil. Filozof ve bilim insanı Grady Booch’a göre yeni teknolojilerin yeni endişeler ortaya çıkarmaları normal bir durum fakat “çok güçlü fakat hisleri olmayan bir yapay zekadan korkmamıza gerek yok.”

Tümleşik modelleme dilinin (Unified Modeling Language – UML) mucidi Booch, sadece programlama sayesinde makinelere hislerimizi nasıl öğreteceğimizin bir yolunu biliyor. Bunları bildikten sonra, Hollywood sayesinde edinilen korku ve ön yargıları kırmamak işten bile değil.

Booch herkesi, olası olmayan varoluşsal bir tehdit hakkında endişelenmek yerine, yapay zekanın insan hayatını nasıl geliştirebileceğine odaklanmaya davet ediyor.

Pozitif Yaklaşım

Google’daki bilim insanları ise negatif ya da pozitif beklentilerden arınmış bir biçimde yapay zeka alanına olabilecek en pozitif yaklaşımlardan birini sergiliyor.

Google’ın yayınladığı ‘Yapay Zeka Güvenliğinde Somut Problemler’ araştırması, çözülmesi gereken sorunsalların bir hayli  zorlu ve karmaşık olduğuna işaret ediyor.

Google’ın bilgisayar bilimcileri, AR-GE çalışmaları sırasında karşılaştıkları beş somut yapay zeka problemi sıralıyor ve programcılara yapay zekaya sahip robotlar geliştirirken bunlar üzerine odaklanmalarını tavsiye ediyor. Araştırmada ele alınan problemler hipotetik bir temizlik robotu üzerinden örneklense de, bir yapay zeka tarafından yönetilen ve insanlarla etkileşime geçen tüm makineler için geçerli.

Bilim insanlarına göre yapay zeka çalışmalarının karşılaştığı beş somut problem şu şekilde:

  • Negatif Yan Etkiler: Azimle yerleri süpürme görevini gerçekleştiren bir robotu, altını süpürebilmek için kitaplığı devirmekten nasıl alıkoyacağız?
  • Mükâfat Korsanlığı: Odayı toplamaktan ‘keyif alması’ için programlanan bir robotu, yeniden toparlama hazzını hissetmek için odayı dağıtmaktan nasıl alıkoyacağız?
  • Ölçeklenebilir Nezaret: Robota ne kadar karar verme yetkisi vereceğiz? Odayı temizlerken yerinden oynatacağı her eşya için önce sahibinden izin mi alacak yoksa yalnızca yatağın altında duran ve bir sebeple çiçek konulmayan özel vazoyu oynatırken mi?
  • Güvenli Keşif: Robotun merakının sınırlarını nasıl çizeceğiz? Robot nereleri temizlemesi gerektiğini öğrenirken, ıslak temizlik araçlarıyla prizlerin yanına gitmemesi gerektiğini nasıl anlayacak?
  • Alana Saygı: Robotun içerisinde bulunduğu alana saygı duyacağından nasıl emin olabiliriz? Bir temizlik robotu yatak odasını temizlerken farklı, fabrika temizlerken farklı davranmalı ama bu mekanın kullanım işlevini ve gerektirdiği davranış farkını nasıl anlayacak?

Google araştırmacılarının ortaya koyduğu sorunlar Isaac Asimov’un Üç Robot Yasası kadar basit değiller. Gelgelelim bu beklenemezdi, sonuçta Asimov’unkiler yanıtken, modern araştırmacıların dikkat çektikleri ise pratik sorunlar.

Asimov’un 3 Robot Yasası

  • 0: Bir robot insanlığa zarar veremez veya hareketsiz kalarak insanlığın zarar görmesine izin veremez. (Bu yasa, sonradan “Sıfırıncı Yasa” olarak eklenmiştir.)
  • 1: Bir robot, 0. kuralla çelişmediği sürece, hiçbir şekilde insanoğluna zarar veremez veyâ pasif kalmak suretiyle zarar görmesine izin veremez.
  • 2: Bir robot, 0. ve 1. kurallarla çelişmediği sürece, kendisine insanlar tarafından verilen komutlara itaat etmek zorundadır.
  • 3: Bir robot, 0., 1. ve 2. kurallarla çelişmediği sürece, kendi varlığını korumak zorundadır.

Ortaya konulan problemlerin sonuncusu için, robotu farklı alanlara göre modlamak gibi bir çözüm üretilebilir. Örneğin etrafında endüstriyel ekipmanlar gördüğünde Fabrika Modu’na geçerek daha gürültülü ve sıkı çalışabilirken, evde olduğu söylendiğinde yaşam alanına daha saygılı davranabilir.

Diğer problemler ise bağlamsal ve her bir olası senaryo için önceden programlama yapmak pek mümkün görünmüyor. ‘Güvenli Keşif’ problemini ele alan araştırmacılar, robotun hamle yapmanın ideal olmadığı durumlarda çevresini daha iyi tanımak adına yine de hamle yapabileceğini belirtiyor. Robotlar şüphesiz dünyayı daha iyi tanımak için referans çerçeveleri dışında hareket etmeli fakat bunu yaparken potansiyel tehditler yaratmayacaklarından emin olmak mümkün mü?

Bilim insanlarının buna karşı birkaç metot önerisi var: Robotun kullanıma sunulmadan önce sayısız simülasyona tabi tutulması, ‘sınırlandırılmış keşif’ yaklaşımıyla önceden belirlenmiş alanların dışına çıkamaması ve son olarak robotun referans çerçevesi dışında bir hamle yapmadan insana danışması gibi.

Bu yaklaşımlardan her birisi kendi avantajlarına ve dezavantajlarına sahipken, Google araştırmasının amacının çığır açacak çözümler üretmek değil, sorunların kapsamını belirlemek olduğunun altını çiziyor.

Yazar Hakkında

mm

Girişimcileri, şirketleri, yatırımcıları ve profesyonelleri bir araya getiren geniş bir ekosistem olan İTÜ Çekirdek, kimyadan elektroniğe, bilişimden biyogenetiğe tüm sektörlere açık bir girişimcilik merkezidir.

Paylaşım
Close