RSS

Bongard Problemleri: Yapay Zekânın ve Bilişsel Bilimin Ahlaki Sorunları

21 Dec

Aşağıda belli bir kurala göre defterin soluna ya da sağına yerleştirilmiş kutular görüyorsunuz. Acaba bu kutuları gruplamanın kuralı nedir? Peki buradan yola çıkarak ahlaksızlık yapmanız mümkün müdür?

Bir Bongard Problemi

Bir Bongard Problemi

Rus bilgisayar bilimci Mikhail Moiseevich Bongard tarafından 1960’lı yılların ortalarında geliştirilen bir problem türü olan Bongard problemleri, söz konusu bilimcinin 1970 yılında İngilizceye çevrilen örüntü tanıma kitabının (İngilizce kitap başlığı: “Pattern Recognition”) sonunda yer almış ve benzer konularda çalışan araştırmacıların da ilgisini çekmiştir.

Bir Bongard probleminde iki şekil grubu vardır. Her gruptaki şekillerin ortak bir noktası vardır. Yani soldaki gruptaki şekillerin sahip olduğu özellik sağdaki gruptaki şekillerde yoktur ve tersi de geçerlidir.

Bir başka Bongard problemine göz atalım:

Bir Bongard Problemi

Bir Bongard Problemi

Soldaki kutularla sağdaki kutuları birbirinden ayıran kural nedir? Peki bu problemleri çözebilecek bir bilgisayar yazılımı geliştirebilir misiniz?

Son soruya cevap vermeden önce beni bu konulardan bahsetmeye yönelten nedenleri paylaşmak istiyorum. Bu problemlerle ilk olarak 9-10 sene önce Hofstadter’in ‘Gödel Escher Bach‘ını okurken karşılaşmıştım. O zamanlar çok dikkatimi çekmemiş olacak veya çekmiş olsa dahi Internet üzerinde bununla ilgili çeşitli kaynaklarla karşılaşmamış olacağım ki bu konu zihnimi çok meşgul etmemiş. Aradan bunca zaman geçtikten ve bilişsel bilimle uğraşma deneyimi tarihime eklendikten sonra aynı problemlerle yine Hofstadter’den daha yeni bir kitabı, ‘Le Ton beau de Marot: In Praise of the Music of Language‘ı okurken karşılaştım birkaç hafta önce. Bu sefer daha çok dikkatimi çeken bu problemleri Internet üzerinde araştırmaya karar verince konu üzerinde epey çalışma yapıldığını öğrendim ve bunların arasında da en kayda değer olanı Hofstadter’in danışmanlığında bilişsel bilim doktorasını 2 sene önce tamamlamış olan Harry Foundalis‘in geliştirmiş olduğu Phaeco sistemi idi:

Phaeaco: Bongard Problems - Program Interface

Phaeaco: Bongard Problems – Program Interface

Beni heyecanlandıran bu çalışma karşısında iyice meraklanıp Foundalis’in web sitesini incelemeye devam ettiğimde bir sürprizle karşılaştım. Foundalis doktora tezini Internet’ten sunuyor ama tezine konu olan ve ekran görüntülerini paylaştığı programı vermiyordu. Sitede yer alan ibare şöyleydi:

Phaeaco’s source code: not provided, reason largely implicit in the “important last note”, below.

İnsansı Robot Actroid-DER2

İnsansı Robot Actroid-DER2

Bahsi geçen “önemli son not”a baktığımda teknik bir mesele ile değil felsefi daha doğrusu ahlaki bir problemle karşılaştım. Foundalis, Phaeco programının kaynak kodunu vermek şöyle dursun, artık Bongard problemleri üzerine çalışmayı bıraktığını ve diğer araştırmacıların da bu tür araştırmalar yapmaması gerektiğini, bu tür araştırmaların kötü sonuçları olabileceğini, uzun vadede yararlı şeylere değil zararlı şeylere yol açacağını belirtiyordu. Foundalis, felsefi ve ahlaki iddialarını ‘Why I stopped working on the Bongard Problems‘ başlıklı makalesinde temellendirmeye çalışmıştı.

Foundalis’e göre genel olarak yapay zekâ ve bilişsel bilim araştırmaları ile ilgili bir problem yoktu. Mesele bu alanlarda çalışanların “insana benzeyen” sistemler geliştirmesi idi. İnsana benzeyen robotlar, insanı kandırmaya yönelik yapay zekâ sistemleri ve benzeri sistemlerin tıpkı daha önceki teknolojiler gibi ordular tarafından şiddet eylemlerine yönelik silahlar olarak kullanılacağını söyleyen Foundalis bu tür çalışmalara karşı ahlaki olarak karşı çıktığını açıklıyordu.

Bu iddialar karşısında “Aman allahım bilgisayarlar dünyayı ele geçirecek, imdat!” klişesine sığınmadan veya bu tür ciddi duruşları karikatürize etmeden konuyu ele almak gerektiğine inanıyorum tüm samimiyetimle. Foundalis’in yaklaşımını bir bakıma benimsememek zor çünkü yapay zekâ ve bilişsel bilimi toptan mahkum etmiyor, mesela kulağa çok hoş gelebilecek kaliteli müzikleri besteleyebilecek yahut bir dilden diğerine çeviri yapabilecek programları hiç tehlikeli bulmadığını belirtiyor (“To have computers that can compose high-quality music, for instance, or translate between languages, is not dangerous.”) Ancak diğer yandan yukarıda verilen örneğin silah yapımında kullanılmasa bile insanları kandırmak için kullanılabileceğini düşünüyorum: Last.FM müzik tavsiye sitesi bana bir sanatçı önerse, bunun üzerine dinlemeye başlasam, bazı parçaları beğendiğimi bazılarını beğenmediğimi belirtsem, Last.FM bunlara bakıp aynı sanatçıdan başka parçalar önerse, bunlar çok hoşuma gitse, hatta sonra bazı albümleri olduğunu öğrensem o sanatçının ve onları satın alsam, arkadaşlarıma o sanatçıdan bahsetsem… ve bir süre sonra ortada bir adam, bir kadın yahut bir müzik grubu değil, çok güçlü bir bilgisayar üzerinde çalışan bir bilgisayar programı olduğunu, tüm o müzikleri o programın otomatik olarak ürettiğini öğrensem… Ahlaki problemler sadece işin içine ölüm kalım meselesi olduğunda mı girer? İnsanların müzikal algılamalarını çok iyi çözmüş ve bunu bir teknoloji olarak somutlaştırmış bir sistem de kendini bir nevi ‘insan olarak yutturmaya‘ çalışan bir sistem değil midir?

Foundalis’in argümanlarına bakıp söylenebilecek bir başka şey ise şu: Bazı yapay zekâ ve bilişsel bilim araştırmalarının doğrudan “insana o kadar benzer bir sistem üretelim ki insanlar o sistemin insan olduğunu zannetsinler, o kadar gelişmiş bir sistem olsun” hedefi olabilir tabii ve buna karşı çıkabilir, bu durumda şu soruyu sormaya hakkımız var, Foundalis’in Phaeco’su doğrudan insanları kandırmaya yönelik bir sistem midir? Teknik açıdan öyle görünmediğini söyleyebilirim.

Birbirinden epey farklı bu iki soruyu sorduktan sonra Foundalis’in çalışmasına ve bununla ilgili kararına saygı duyduğumu belirtmekle beraber bu tür ahlaki sıkıntılara pratikte daha iyi bir çözüm bulunduğunu düşünüyorum: Doğrudan askeri amaçlara hizmet etmemek, askeri fonlardan para almadan bilimsel araştırma yapmak. Söz konusu yaklaşımı benimseyen en az bir bilgisayar bilimci olduğunu biliyorum: Benjamin Kuipers. Kendisinin “Neden Ordu Parası ile Araştırma Yapılmaz?” başlıklı manifestosunu vakti zamanında epey tartışmıştık (daha da tartışmaya açık verimli bir konu pek çok açıdan). Bu yaklaşımı daha anlamlı bulmamın sebeplerine gelince: öncelikle Foundalis’in yaptığı gibi bilgi paylaşımını engelleyici bir yanı yok, bu yüzden destekliyorum. İkincisi de paylaşılacak bilgi zaten doğrudan şiddet kullanımını destekleyen kurumlarca (Pentagon, CIA, NSA, vs.) parası ödenen çalışmalardan gelmediği için şiddete ve ölüme hizmet ettiği söylenemez. Son olarak da şunu eklemek anlamlı olacaktır: Keşfetmeye çalıştığımız bilgilerin süreç içinde neye hizmet ettiğini önceden kestirebilmemiz çok güç, bu yüzden araştırmacının ahlaki sorumluluğunu araştırma esnasında hiçbir canlıya zarar vermemek, acı çektirmemek ve şiddeti destekleyenlerden herhangi bir destek almaksızın araştırmasını yapıp keşfettiği bilgileri ayrım gözetmeksizin insanlarla paylaşmaktır.


Notlar

Yukarıdaki iki Bongard problemi de Douglas Hofstadter tarafından geliştirilmiştir. Orjinal Bongard problemleri, Hofstadter’inkiler ve başkalarının geliştirdiği problemlerin tamamına http://www.foundalis.com/res/bps/bpidx.htm adresinden erişebilirsiniz.

Birinci problemin çözümü: Noktaları birleştiren doğru parçalarını çizin. Soldaki doğru parçalarının sola, sağdaki doğru parçalarının ise sağa eğimli olduğunu, bir başka deyişle soldaki doğru parçlarının masanıza paralel olan doğru ile geniş, diğer taraftakilerin ise dar açı yaptığını göreceksiniz.

İkinci problemin çözümü: Soldaki kutularda iç içe geçmiş şekillerin ikincisi daima üçgen, diğerlerinde ise böyle değil.

Foundalis’in tezini okumadan önce çok daha kısa ve kolay okunan ‘Fundamental Principles of Cognition‘ makalesini okumanızda fayda var.

 
9 Comments

Posted by on December 21, 2008 in CogSci, General, philosophy

 

9 responses to “Bongard Problemleri: Yapay Zekânın ve Bilişsel Bilimin Ahlaki Sorunları

  1. Evren Esat Özkan

    December 22, 2008 at 03:55

    Paranın nereden geldiği ne fark eder ki? Sonuçta bir şekilde yapay zeka insanları genel olarak alt edebilecek seviyeye ulaştıktan sonra orduların bu teknolojiyi kendilerine uyarlamaları çok sürmeyecektir. Dolayısıyla önemli olan insanoğlunun otomasyona bir sınır koyup koymayacağıdır bence.

     
  2. bluekid

    December 22, 2008 at 15:13

    “Matrix Kırmızı hapı yutmak” adlı kitapta da konuyla ilgili ilginç makaleler var
    Bu arada Theodore John Kaczynski yani bilinen ismiyle Unabomber’ı ve manifestosunu unutmamak lazım ve pek tabii “Lifeboat Foundation AIShield” de

     
  3. yusuf - Yapay Zekâ İle Ahlaksızlık Yapılabilir Mi? | Bilgince.com

    December 24, 2008 at 11:25

    Bongard Problemleri: Yapay Zekânın ve Bilişsel Bilimin Ahlaki Sorunları? başlıklı makaleyi çok yararlı bulucaksınız okuyanlar zaten memnun ve bilgi sahibi olmuştur ben bundan eminim.
    teşekkürler.

     
  4. Emre Sevinc

    December 27, 2008 at 07:45

    Konuyla ilgili bir de şurada bir tartışma başladı:

    http://tech.groups.yahoo.com/grou/ariteknokent/messages/1075

     

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

 
%d bloggers like this: