Translated by Selda Yener
Reviewed by Cihan Ekmekçi
Bilgisayar programcısı olarak ilk çalışmaya başladığımda üniversite birinci sınıftaydım, yani yeni yetme sayılırdım.
Bir şirkette program yazma göreviyle işe girdikten kısa süre sonra şirkette çalışan bir müdür yanıma geldi ve fısıltıyla sordu: "Yalan söylediğimi anlayabilir mi?" Odada başka kimse yoktu.
"Yalanı kim anlayabilir mi? Ayrıca neden fısıldaşıyoruz?" dedim.
Müdür, odada bulunan bilgisayarı gösterdi. "Yalan söyleyip söylemediğimi anlar mı?" Bu müdür danışmada çalışan biriyle ilişki yaşıyordu.
(Gülüşmeler)
Ben de yeni yetmeyim tabii. Fısıltıyla bağırır gibi cevap verdim: "Evet, yalan söylerseniz bilgisayar anlar." dedim.
(Gülüşmeler)
Gülüyordum ama aslında gülünmesi gereken bendim. Günümüzde insan yüzlerini işlemden geçirerek ruh hâlini ve hatta yalan söylediğini tespit eden bilgisayar programları var. Reklamcılar, hatta devletler de çok ilgi duyuyor.
Matematik ve fen bilgisini çok seven bir çocuk olduğum için bilgisayar programcısı olmuştum. Fakat o sıralarda nükleer silahlara dair bilgi edinmiş ve bilim etiğine de çok ilgi duymaya başlamıştım. Sorunlarım vardı. Ne yazık ki ailevi durumlar yüzünden mümkün olduğu kadar çabuk işe girmem gerekiyordu. Kendi kendime düşündüm; kolaylıkla iş bulabileceğim teknik bir alan seçeyim ki sıkıcı etik problemlerle uğraşmak zorunda kalmayayım dedim. Böylelikle bilgisayarı seçtim.
(Gülüşmeler)
Ha, ha, ha! Herkes bana gülüyordur. Günümüzde bilgisayar uzmanları her gün milyarlarca insanın göreceği şeyleri kontrol eden programlar kuruyor. Kime çarpacağına karar verebilecek arabalar geliştiriyorlar. Savaşta insanları öldürecek türden makineler, silahlar bile geliştiriyorlar. Etik tamamen ortadan kalkıyor.
Makine zekâsı işin içinde. Artık herhangi bir karar verirken bilgisayar kullanıyoruz, üstelik yeni kararlar alırken bile. Bilgisayara tek bir doğru cevabı olmayan, öznel, açık uçlu ve değer yüklü sorular soruyoruz.
Mesela şu gibi sorular: "Şirket kimi işe almalı?" "Hangi arkadaştan hangi güncellemeyi görmelisiniz?" "Hangi mahkûm tekrar suç işlemeye yatkın?" "İnsanlara hangi haber ya da film tavsiye edilmeli?"
Bakın, evet bir süredir bilgisayar kullanıyoruz, ama bu farklı bir durum. Bu tarihi bir hata, çünkü böyle öznel kararlarda bilgisayara güvenemeyiz, bilgisayara uçak uçurmada, köprü inşa etmede, aya gitmede güvendiğimiz gibi güvenemeyiz. Uçaklar daha güvenli mi? Köprü sallanıp çöker miydi? Burada üzerinde anlaşılan, açık ölçütler ve bize yol gösteren doğa kanunları olduğu konusunda hemfikiriz. Karmaşık insan ilişkilerinde karar verirken bu tür dayanak ve ölçütler yok.
İşleri daha çetrefilli hâle getirmek için yazılımımız gittikçe güçleniyor, fakat aynı zamanda daha az şeffaflaşıp daha karmaşık oluyor. Son on yıl içerisinde, kompleks algoritmalar büyük aşamalar katetti. İnsan yüzlerini tanıyabiliyorlar. El yazılarını çözebiliyorlar. Kredi kartı dolandırıcılığını tespit edip spam postaları engelliyor ve diller arası çeviri yapabiliyorlar. Tıbbi görüntülemelerde tümörleri teşhis edebiliyorlar. Go ve satrançta insanları yenebiliyorlar.
Bu gelişmelerin çoğu "makine öğrenimi" denilen bir yöntemden geliyor. Makine öğrenimi, bilgisayara detaylı, doğru ve itinalı talimatlar verdiğiniz geleneksel programlamadan farklıdır. Daha çok sistemi kavrayıp onu dijital yaşamlarımızda ürettiğimiz türden yapısal olmayan veri dahil bir sürü veriyle desteklemeniz gibidir. Sistem bu bilgileri baştan sona karıştırarak öğrenir. Ayrıca en önemlisi bu sistemlerin tek cevaplı mantıkla çalışmadığıdır. Tek bir cevap üretmezler, daha çok olasılık vardır: "Belki de aradığınız şey bu olabilir."
Şimdi avantajı şu: Bu yöntem gerçekten çok güçlüdür. Google'ın Yapay Zeka'sının dediği gibi "verinin akıl almaz etkinliği"dir. Dezavantajı ise, sistemin ne öğrendiğini tam olarak anlamıyor olmamızdır. Aslında bu onun gücü. Bu, bir bilgisayara talimat vermek gibi değildir; nasıl kontrol edeceğimizi bilmediğimiz bir içecek sıkma makinesini çalıştırmak gibidir. Yani sorunumuz bu. Yapay zeka sistemi bir şeyleri yanlış anladığında problem olur. Aynı zamanda doğru anladığında da problem olur, çünkü öznel bir problem olduğunda hangisinin hangisi olduğunu bilmiyoruz. Bu şeyin ne düşündüğünü bile bilmiyoruz.
Şimdi, insanları işe almak için kullanılan makine öğrenimi sistemlerinden yararlanan bir işe alım algoritma sistemi düşünün. Böyle bir sistem önceki çalışanların verilerine ayarlı ve şirketteki yüksek performansı olan çalışanlar gibi insanlar bulmaya ve işe almaya kurulmuş olmalı. İyi fikir. Bir keresinde bir konferansa katıldım, işe alımda bu sistemi kullanan insan kaynakları uzmanları ile yöneticileri, üst düzey insanları buluşturuyordu. Çok heyecanlıydılar. Bu yöntemin işe alımı daha nesnel, daha az ön yargılı yapacağını ve kadın ve azınlıkları ön yargılı insan kaynakları karşısında daha şanslı hâle getireceğini düşünüyorlardı.
İşe alımda ön yargılı davranılır. Biliyorum. Yani, programcı olarak çalıştığım ilk işlerimden birinde ilk patronum bazen sabah çok erken ya da öğleden sonra çok geç saatlerde yanıma gelir ve "Zeynep, hadi yemeğe çıkalım!" derdi. Garip zamanlamasına şaşırırdım. Saat dört. Öğle yemeği mi? Param yoktu, bedava öğle yemeği vardı. Her zaman giderdim. Neler olduğunu daha sonraları anladım. Amirlerim kendi üst düzey müdürlerine çok ciddi bir iş için işe aldıkları programcının kot pantolon ve spor ayakkabı giyen yeni yetme bir kız olduğunu söylememişlerdi. İyi iş çıkarıyordum, ama yanlış görünüyordum, yanlış yaşta ve cinsiyetteydim.
Dolayısıyla cinsiyet ve ırk gözetilmeksizin işe alım bence kesinlikle iyi fikir. Ancak bu sistemlerle konu daha karmaşık oluyor, nedeni şu: Şimdilerde bilgisayar sistemleri paylaşmadığınız şeyler bile olsa dijital kırıntılarınızdan hakkınızda birçok çıkarım yapabilir. Cinsel yöneliminizi, kişilik özelliklerinizi, siyasi görüşünüzü anlayabiliyor. Yüksek doğruluk oranlı öngörü güçleri var. Unutmayın - paylaşmadığınız şeyleri bile. Bu, çıkarımda bulunmaktır.
Sosyal medya verilerinden klinik depresyon veya doğum sonrası depresyon ihtimalini öngören sayısal sistemler geliştiren bir arkadaşım var. Sonuçlar etkileyici. Sistem depresyon ihtimalini semptomların başlamasından aylar öncesinden öngörebiliyor, aylar öncesinden. Hiçbir semptom yok, ama öngörü var. Erken müdahalede kullanılacağını umuyor. Muhteşem! Şimdi de bunu işe alım kavramına uygulayın.
Bu insan kaynakları yöneticileri konferansında büyük bir şirketin üst düzey bir yöneticisiyle görüştüm. Ona, "Peki sisteminiz size bildirmeden gelecekte yüksek depresyon ihtimali olan insanları ayıklıyorsa? Şu an psikolojik bozuklukları yok, ancak belki ileride olabilir. Peki şu an hamile olmayan ancak gelecek bir ya da iki yıl içinde hamile kalma ihtimali olan kadınları ayıklıyorsa? İş yeri kültürünüz öyle olduğu için agresif insanları işe alıyorsa?" dedim. Bunu cinsiyet analizlerine bakarak anlayamazsınız. Dengelenmiş olabilirler. Ayrıca bu geleneksel kodlama değil makine öğrenimi olduğu için "yüksek depresyon riski", "yüksek hamilelik riski", "agresiflik ölçümü" gibi etiket taşıyan değişkenler yok. Sadece sisteminizin neyi seçtiğini değil, nereden bakmaya başlayacağınızı bile bilmiyorsunuz. Bir kara kutu. Tahmin gücüne sahip ancak onu anlamıyorsunuz.
"Ne güvenlikleri var?" diye sordum, "kara kutunuzun gizli bir şey yapmadığından emin olmak için?" Kuyruğuna basmışım gibi bakakaldı.
(Gülüşmeler)
Dik dik baktı ve "buna dair başka bir şey duymak istemiyorum." dedi. Arkasını dönüp gitti. Gerçi kaba değildi. Açıklaması şu: Bilmediğim şey benim sorunum değil, bas git, öldürücü bakış.
(Gülüşmeler)
Bakın böyle bir sistem bazı açılardan insan yöneticilerden daha az ön yargılı olabilir. Parasal anlam taşıyabilir. Ancak depresyon riski yüksek olan insanların iş piyasasına istikrarlı ve gizli olarak girmesini engellemeye sebep olabilir. Ne yapmış olduğumuzu bile bilmeden kurmak istediğimiz toplum modeli bu mu? Çünkü karar verme işini tam olarak anlamadığımız makinelere bırakıyoruz.
Diğer bir problemse şu: Bu sistemler çoğunlukla bizim davranışlarımızla; insan izleri tarafından üretilen bilgilerle test edilir. Ön yargılarımızı yansıtıyor olabilirler. Bu sistemler ön yargılarımıza dönüp onları büyütüp bize tekrar gösteriyor olabilir, biz ise bu arada kendimize "Sadece nesnel, tarafsız hesap yapıyoruz." diyoruz.
Araştırmacılar Google'da yüksek maaşlı iş ilanlarını kadınların görme ihtimalinin erkeklerden daha az olduğunu tespit etti. Afro-Amerikan isimleri araştırırken alakası olmasa bile sabıka geçmişi ile ilgili ilanları öne sürmesi daha muhtemeldir. Araştırmacıların bazen ortaya çıkardığı ancak bazen bizim bilmediğimiz bu tür gizli ön yargıların ve kara kutu algoritmalarının hayat değiştiren sonuçları var.
Wisconsin'de bir sanık, altı yıl hapse mahkûm edildi, polisten kaçtığı için. Belki bilmiyorsunuzdur, algoritmaların şartlı tahliye ve ceza kararlarında kullanımı giderek artıyor. Şunu öğrenmek istiyordu: Bu sonuç nasıl hesaplanmıştı? Ticari bir kara kutu. Şirket, halka açık duruşmada işlemlerinin sorgulanmasını reddetmişti. Kâr amacı gütmeyen araştırmacı kurum ProPublica, bu algoritmayı bulabildiği kamusal verilerle inceledi ve sonuçlarının ön yargılı olduğunu, öngörü gücününse kötü, olasılıktan biraz iyi olduğunu ve siyahi sanıkları haksız yere beyaz sanıklardan iki kat fazla bir oranla geleceğin suçluları olarak etiketlediğini bulguladı.
Şu olayı göz önüne alın: Bu kadın, vaftiz kardeşini Florida'nın Broward bölgesindeki bir okuldan almaya geç kalmış, bir arkadaşıyla caddede ilerliyorlar. Verandada duran kilitsiz bir çocuk bisikleti ve bir kaydırak görüyor ve düşünmeden biniyorlar. Tam yola koyulacakken kadının biri çıkıyor ve "Hey! Bu benim çocuğumun bisikleti!" diyor. Bırakıp gidiyorlar, ancak tutuklanıyorlar.
Haksızdı, aptalca davranmıştı, ama henüz 18 yaşındaydı. Çocukken ciddi olmayan bir iki suç işlemişti. Bu arada, adam da Home Depot'da hırsızlık yapmaktan tutuklanmıştı. 85 dolar değerinde, benzeri bir hafif suç. Ama öncesinde iki silahlı soygun sabıkası vardı. Ancak algoritma, adamı değil kadını yüksek riskli olarak işaretledi. İki yıl sonra ProPublica kadının tekrar suç işlemediğini tespit etti. Sabıka puanıyla iş bulması çok zordu. Öte yandan adam tekrar suç işlemişti ve şimdi daha sonra işlediği bir suç yüzünden sekiz yıllık hapis cezasında. Belli ki kara kutularımızı kontrol etmemiz ve onlara böyle kontrolsüz güç vermememiz gerekiyor.
(Alkışlar)
Kontroller önemli ve etkili, ancak tüm sorunlarımızı çözmüyorlar. Facebook'un muhteşem haber akışı algoritmasına bakın, yani takip ettiğiniz tüm arkadaşlarınız ve sayfalardan her şeyi sıralayıp size ne göstereceğine karar veren algoritma. Başka bir bebek fotoğrafı görmeli misiniz?
(Gülüşmeler)
Bir tanıdıktan somurtkan bir not? Önemli ama üzücü haberler? Doğru bir cevap yok. Facebook meşgul olacaklarınızı en uygun hâle getiriyor: Beğeniler, paylaşımlar, yorumlar.
Ağustos 2014'te, Missouri, Ferguson'da Afro-Amerikan bir gencin beyaz bir polis tarafından şüpheli bir şekilde öldürülmesi sonrası protestolar başladı. Protesto haberleri algoritmik olarak filtrelenmeyen Twitter akışımda vardı ancak Facebook'ta hiçbir yerde yoktu. Facebook arkadaşlarım ne hâldeydi? Facebook'un algoritmasını devre dışı bıraktım, ki bu çok zordur, çünkü Facebook sizi algoritmanın kontrolü altında tutmak ister. Baktım ki arkadaşlarım da bunu konuşuyor. Bunu bana göstermeyen algoritmanın ta kendisiydi. Bunu araştırdım ve yaygın bir problem olduğunu gördüm.
Ferguson haberi algoritma dostu değildi. "Beğenilebilir" değildi. Kim "beğen"e tıklayacaktı? Yorum yapılması bile kolay değildi. Beğeniler ve yorumlar olmayınca algoritma bunu daha az insana gösteriyor olmalıydı, dolayısıyla görmüyorduk. Onun yerine, o hafta Facebook'un algoritması şunu ön plana çıkardı: ALS Buz Kovası Düellosu. İyi bir sebep; buzlu su dök, bağış yap, tamam. Fakat süper algoritma dostuydu. Makine bu kararı bizim için almıştı. Facebook tek kanal olsaydı çok önemli ancak etkili bir sohbet engellenmiş olabilirdi.
Şimdi sonuç olarak bu sistemler insan sistemlerine benzememesi bakımından da yanlış olabilir. Watson'ı hatırlıyor musunuz? IBM'in Riziko'da insan rakiplerini yenilgiye uğratan makine zekâsı sistemini? Harika bir oyuncuydu. Ancak o zaman, Riziko'nun finalinde Watson'a şu soru soruldu: "En büyük havaalanı adını İkinci Dünya Savaşı kahramanından alır, ikincisi İkinci Dünya Savaşı savaşından.
(Final Riziko müziği çalar)
Chicago. İki insan soruyu doğru anladı. Buna karşın Watson, Birleşik Devletler şehri olarak "Toronto" cevabını verdi. Bu etkileyici sistem bir insanın, ikinci sınıfa giden birinin asla yapmayacağı bir hata yapmıştı.
Makine zekâmız insanların hata şekline uymayan şekilde, beklemediğimiz ve hazırlıksız olduğumuz şekilde hata yapabilir. Kalifiye biri için işe alınmamak kötü olabilirdi, fakat bu, bazı alt programlarda bellek dolu dediği için oluyorsa üç kat daha kötü olurdu.
(Gülüşmeler)
Mayıs 2010'da Wall Steet'te olan Wall Street'in "satış" algoritmalarını bir geri bildirim döngüsünün körüklediği ani bir düşüş 36 dakika içinde trilyon dolarları sildi. Ölümcül otonom silahlar bağlamında "hata yapmak" ne demek bunu düşünmek bile istemiyorum.
Evet, insanlar her zaman ön yargıda bulunur. Karar vericiler ve geçit deneticiler mahkemelerde, haberlerde, savaşlarda... Hata yaparlar; işte benim asıl dikkat çekmek istediğim bu. Bu zor sorulardan kaçamayız. Kendi sorumluluklarımızı makinelere yaptıramayız.
(Alkışlar)
Yapay zekâ bize "etikten kurtul geç" kartı vermiyor.
Veri uzmanı Fred Benenson buna matematiksel yıkama diyor. Tam tersine ihtiyacımız var. Algoritmayı şüphe, gözlem ve inceleme ile desteklemeliyiz. Algoritmik izlenebilirlik, denetim ve anlamlı şeffaflığımız olduğundan emin olmamız gerek. Matematik ve programlamayı karmaşık, değer yüklü insani ilişkilere uygulamanın nesnellik getirmeyeceğini kabul etmemiz gerekiyor; aksine, insan ilişkilerinin karmaşıklığı algoritmaları ele geçiriyor. Tabii ki daha iyi kararlar almamız için bilgisayar kullanabiliriz, kullanmalıyız da. Ancak doğru karar vermek için, ahlaki sorumluluk alıp algoritmaları bu çerçevede kullanmak zorundayız, insan olarak birbirimize karşı olan sorumluluklarımızı üstümüzden atıp dış kaynaktan temin etmenin bir yolu gibi görmemeliyiz.
Makine zekâsı işte böyledir. Bu demektir ki, insani değerlere ve etiğe hiç olmadığı kadar sıkı sarılmamız gerekiyor.
Teşekkür ederim.
(Alkışlar)
Reviewed by Cihan Ekmekçi
Bilgisayar programcısı olarak ilk çalışmaya başladığımda üniversite birinci sınıftaydım, yani yeni yetme sayılırdım.
Bir şirkette program yazma göreviyle işe girdikten kısa süre sonra şirkette çalışan bir müdür yanıma geldi ve fısıltıyla sordu: "Yalan söylediğimi anlayabilir mi?" Odada başka kimse yoktu.
"Yalanı kim anlayabilir mi? Ayrıca neden fısıldaşıyoruz?" dedim.
Müdür, odada bulunan bilgisayarı gösterdi. "Yalan söyleyip söylemediğimi anlar mı?" Bu müdür danışmada çalışan biriyle ilişki yaşıyordu.
(Gülüşmeler)
Ben de yeni yetmeyim tabii. Fısıltıyla bağırır gibi cevap verdim: "Evet, yalan söylerseniz bilgisayar anlar." dedim.
(Gülüşmeler)
Gülüyordum ama aslında gülünmesi gereken bendim. Günümüzde insan yüzlerini işlemden geçirerek ruh hâlini ve hatta yalan söylediğini tespit eden bilgisayar programları var. Reklamcılar, hatta devletler de çok ilgi duyuyor.
Matematik ve fen bilgisini çok seven bir çocuk olduğum için bilgisayar programcısı olmuştum. Fakat o sıralarda nükleer silahlara dair bilgi edinmiş ve bilim etiğine de çok ilgi duymaya başlamıştım. Sorunlarım vardı. Ne yazık ki ailevi durumlar yüzünden mümkün olduğu kadar çabuk işe girmem gerekiyordu. Kendi kendime düşündüm; kolaylıkla iş bulabileceğim teknik bir alan seçeyim ki sıkıcı etik problemlerle uğraşmak zorunda kalmayayım dedim. Böylelikle bilgisayarı seçtim.
(Gülüşmeler)
Ha, ha, ha! Herkes bana gülüyordur. Günümüzde bilgisayar uzmanları her gün milyarlarca insanın göreceği şeyleri kontrol eden programlar kuruyor. Kime çarpacağına karar verebilecek arabalar geliştiriyorlar. Savaşta insanları öldürecek türden makineler, silahlar bile geliştiriyorlar. Etik tamamen ortadan kalkıyor.
Makine zekâsı işin içinde. Artık herhangi bir karar verirken bilgisayar kullanıyoruz, üstelik yeni kararlar alırken bile. Bilgisayara tek bir doğru cevabı olmayan, öznel, açık uçlu ve değer yüklü sorular soruyoruz.
Mesela şu gibi sorular: "Şirket kimi işe almalı?" "Hangi arkadaştan hangi güncellemeyi görmelisiniz?" "Hangi mahkûm tekrar suç işlemeye yatkın?" "İnsanlara hangi haber ya da film tavsiye edilmeli?"
Bakın, evet bir süredir bilgisayar kullanıyoruz, ama bu farklı bir durum. Bu tarihi bir hata, çünkü böyle öznel kararlarda bilgisayara güvenemeyiz, bilgisayara uçak uçurmada, köprü inşa etmede, aya gitmede güvendiğimiz gibi güvenemeyiz. Uçaklar daha güvenli mi? Köprü sallanıp çöker miydi? Burada üzerinde anlaşılan, açık ölçütler ve bize yol gösteren doğa kanunları olduğu konusunda hemfikiriz. Karmaşık insan ilişkilerinde karar verirken bu tür dayanak ve ölçütler yok.
İşleri daha çetrefilli hâle getirmek için yazılımımız gittikçe güçleniyor, fakat aynı zamanda daha az şeffaflaşıp daha karmaşık oluyor. Son on yıl içerisinde, kompleks algoritmalar büyük aşamalar katetti. İnsan yüzlerini tanıyabiliyorlar. El yazılarını çözebiliyorlar. Kredi kartı dolandırıcılığını tespit edip spam postaları engelliyor ve diller arası çeviri yapabiliyorlar. Tıbbi görüntülemelerde tümörleri teşhis edebiliyorlar. Go ve satrançta insanları yenebiliyorlar.
Bu gelişmelerin çoğu "makine öğrenimi" denilen bir yöntemden geliyor. Makine öğrenimi, bilgisayara detaylı, doğru ve itinalı talimatlar verdiğiniz geleneksel programlamadan farklıdır. Daha çok sistemi kavrayıp onu dijital yaşamlarımızda ürettiğimiz türden yapısal olmayan veri dahil bir sürü veriyle desteklemeniz gibidir. Sistem bu bilgileri baştan sona karıştırarak öğrenir. Ayrıca en önemlisi bu sistemlerin tek cevaplı mantıkla çalışmadığıdır. Tek bir cevap üretmezler, daha çok olasılık vardır: "Belki de aradığınız şey bu olabilir."
Şimdi avantajı şu: Bu yöntem gerçekten çok güçlüdür. Google'ın Yapay Zeka'sının dediği gibi "verinin akıl almaz etkinliği"dir. Dezavantajı ise, sistemin ne öğrendiğini tam olarak anlamıyor olmamızdır. Aslında bu onun gücü. Bu, bir bilgisayara talimat vermek gibi değildir; nasıl kontrol edeceğimizi bilmediğimiz bir içecek sıkma makinesini çalıştırmak gibidir. Yani sorunumuz bu. Yapay zeka sistemi bir şeyleri yanlış anladığında problem olur. Aynı zamanda doğru anladığında da problem olur, çünkü öznel bir problem olduğunda hangisinin hangisi olduğunu bilmiyoruz. Bu şeyin ne düşündüğünü bile bilmiyoruz.
Şimdi, insanları işe almak için kullanılan makine öğrenimi sistemlerinden yararlanan bir işe alım algoritma sistemi düşünün. Böyle bir sistem önceki çalışanların verilerine ayarlı ve şirketteki yüksek performansı olan çalışanlar gibi insanlar bulmaya ve işe almaya kurulmuş olmalı. İyi fikir. Bir keresinde bir konferansa katıldım, işe alımda bu sistemi kullanan insan kaynakları uzmanları ile yöneticileri, üst düzey insanları buluşturuyordu. Çok heyecanlıydılar. Bu yöntemin işe alımı daha nesnel, daha az ön yargılı yapacağını ve kadın ve azınlıkları ön yargılı insan kaynakları karşısında daha şanslı hâle getireceğini düşünüyorlardı.
İşe alımda ön yargılı davranılır. Biliyorum. Yani, programcı olarak çalıştığım ilk işlerimden birinde ilk patronum bazen sabah çok erken ya da öğleden sonra çok geç saatlerde yanıma gelir ve "Zeynep, hadi yemeğe çıkalım!" derdi. Garip zamanlamasına şaşırırdım. Saat dört. Öğle yemeği mi? Param yoktu, bedava öğle yemeği vardı. Her zaman giderdim. Neler olduğunu daha sonraları anladım. Amirlerim kendi üst düzey müdürlerine çok ciddi bir iş için işe aldıkları programcının kot pantolon ve spor ayakkabı giyen yeni yetme bir kız olduğunu söylememişlerdi. İyi iş çıkarıyordum, ama yanlış görünüyordum, yanlış yaşta ve cinsiyetteydim.
Dolayısıyla cinsiyet ve ırk gözetilmeksizin işe alım bence kesinlikle iyi fikir. Ancak bu sistemlerle konu daha karmaşık oluyor, nedeni şu: Şimdilerde bilgisayar sistemleri paylaşmadığınız şeyler bile olsa dijital kırıntılarınızdan hakkınızda birçok çıkarım yapabilir. Cinsel yöneliminizi, kişilik özelliklerinizi, siyasi görüşünüzü anlayabiliyor. Yüksek doğruluk oranlı öngörü güçleri var. Unutmayın - paylaşmadığınız şeyleri bile. Bu, çıkarımda bulunmaktır.
Sosyal medya verilerinden klinik depresyon veya doğum sonrası depresyon ihtimalini öngören sayısal sistemler geliştiren bir arkadaşım var. Sonuçlar etkileyici. Sistem depresyon ihtimalini semptomların başlamasından aylar öncesinden öngörebiliyor, aylar öncesinden. Hiçbir semptom yok, ama öngörü var. Erken müdahalede kullanılacağını umuyor. Muhteşem! Şimdi de bunu işe alım kavramına uygulayın.
Bu insan kaynakları yöneticileri konferansında büyük bir şirketin üst düzey bir yöneticisiyle görüştüm. Ona, "Peki sisteminiz size bildirmeden gelecekte yüksek depresyon ihtimali olan insanları ayıklıyorsa? Şu an psikolojik bozuklukları yok, ancak belki ileride olabilir. Peki şu an hamile olmayan ancak gelecek bir ya da iki yıl içinde hamile kalma ihtimali olan kadınları ayıklıyorsa? İş yeri kültürünüz öyle olduğu için agresif insanları işe alıyorsa?" dedim. Bunu cinsiyet analizlerine bakarak anlayamazsınız. Dengelenmiş olabilirler. Ayrıca bu geleneksel kodlama değil makine öğrenimi olduğu için "yüksek depresyon riski", "yüksek hamilelik riski", "agresiflik ölçümü" gibi etiket taşıyan değişkenler yok. Sadece sisteminizin neyi seçtiğini değil, nereden bakmaya başlayacağınızı bile bilmiyorsunuz. Bir kara kutu. Tahmin gücüne sahip ancak onu anlamıyorsunuz.
"Ne güvenlikleri var?" diye sordum, "kara kutunuzun gizli bir şey yapmadığından emin olmak için?" Kuyruğuna basmışım gibi bakakaldı.
(Gülüşmeler)
Dik dik baktı ve "buna dair başka bir şey duymak istemiyorum." dedi. Arkasını dönüp gitti. Gerçi kaba değildi. Açıklaması şu: Bilmediğim şey benim sorunum değil, bas git, öldürücü bakış.
(Gülüşmeler)
Bakın böyle bir sistem bazı açılardan insan yöneticilerden daha az ön yargılı olabilir. Parasal anlam taşıyabilir. Ancak depresyon riski yüksek olan insanların iş piyasasına istikrarlı ve gizli olarak girmesini engellemeye sebep olabilir. Ne yapmış olduğumuzu bile bilmeden kurmak istediğimiz toplum modeli bu mu? Çünkü karar verme işini tam olarak anlamadığımız makinelere bırakıyoruz.
Diğer bir problemse şu: Bu sistemler çoğunlukla bizim davranışlarımızla; insan izleri tarafından üretilen bilgilerle test edilir. Ön yargılarımızı yansıtıyor olabilirler. Bu sistemler ön yargılarımıza dönüp onları büyütüp bize tekrar gösteriyor olabilir, biz ise bu arada kendimize "Sadece nesnel, tarafsız hesap yapıyoruz." diyoruz.
Araştırmacılar Google'da yüksek maaşlı iş ilanlarını kadınların görme ihtimalinin erkeklerden daha az olduğunu tespit etti. Afro-Amerikan isimleri araştırırken alakası olmasa bile sabıka geçmişi ile ilgili ilanları öne sürmesi daha muhtemeldir. Araştırmacıların bazen ortaya çıkardığı ancak bazen bizim bilmediğimiz bu tür gizli ön yargıların ve kara kutu algoritmalarının hayat değiştiren sonuçları var.
Wisconsin'de bir sanık, altı yıl hapse mahkûm edildi, polisten kaçtığı için. Belki bilmiyorsunuzdur, algoritmaların şartlı tahliye ve ceza kararlarında kullanımı giderek artıyor. Şunu öğrenmek istiyordu: Bu sonuç nasıl hesaplanmıştı? Ticari bir kara kutu. Şirket, halka açık duruşmada işlemlerinin sorgulanmasını reddetmişti. Kâr amacı gütmeyen araştırmacı kurum ProPublica, bu algoritmayı bulabildiği kamusal verilerle inceledi ve sonuçlarının ön yargılı olduğunu, öngörü gücününse kötü, olasılıktan biraz iyi olduğunu ve siyahi sanıkları haksız yere beyaz sanıklardan iki kat fazla bir oranla geleceğin suçluları olarak etiketlediğini bulguladı.
Şu olayı göz önüne alın: Bu kadın, vaftiz kardeşini Florida'nın Broward bölgesindeki bir okuldan almaya geç kalmış, bir arkadaşıyla caddede ilerliyorlar. Verandada duran kilitsiz bir çocuk bisikleti ve bir kaydırak görüyor ve düşünmeden biniyorlar. Tam yola koyulacakken kadının biri çıkıyor ve "Hey! Bu benim çocuğumun bisikleti!" diyor. Bırakıp gidiyorlar, ancak tutuklanıyorlar.
Haksızdı, aptalca davranmıştı, ama henüz 18 yaşındaydı. Çocukken ciddi olmayan bir iki suç işlemişti. Bu arada, adam da Home Depot'da hırsızlık yapmaktan tutuklanmıştı. 85 dolar değerinde, benzeri bir hafif suç. Ama öncesinde iki silahlı soygun sabıkası vardı. Ancak algoritma, adamı değil kadını yüksek riskli olarak işaretledi. İki yıl sonra ProPublica kadının tekrar suç işlemediğini tespit etti. Sabıka puanıyla iş bulması çok zordu. Öte yandan adam tekrar suç işlemişti ve şimdi daha sonra işlediği bir suç yüzünden sekiz yıllık hapis cezasında. Belli ki kara kutularımızı kontrol etmemiz ve onlara böyle kontrolsüz güç vermememiz gerekiyor.
(Alkışlar)
Kontroller önemli ve etkili, ancak tüm sorunlarımızı çözmüyorlar. Facebook'un muhteşem haber akışı algoritmasına bakın, yani takip ettiğiniz tüm arkadaşlarınız ve sayfalardan her şeyi sıralayıp size ne göstereceğine karar veren algoritma. Başka bir bebek fotoğrafı görmeli misiniz?
(Gülüşmeler)
Bir tanıdıktan somurtkan bir not? Önemli ama üzücü haberler? Doğru bir cevap yok. Facebook meşgul olacaklarınızı en uygun hâle getiriyor: Beğeniler, paylaşımlar, yorumlar.
Ağustos 2014'te, Missouri, Ferguson'da Afro-Amerikan bir gencin beyaz bir polis tarafından şüpheli bir şekilde öldürülmesi sonrası protestolar başladı. Protesto haberleri algoritmik olarak filtrelenmeyen Twitter akışımda vardı ancak Facebook'ta hiçbir yerde yoktu. Facebook arkadaşlarım ne hâldeydi? Facebook'un algoritmasını devre dışı bıraktım, ki bu çok zordur, çünkü Facebook sizi algoritmanın kontrolü altında tutmak ister. Baktım ki arkadaşlarım da bunu konuşuyor. Bunu bana göstermeyen algoritmanın ta kendisiydi. Bunu araştırdım ve yaygın bir problem olduğunu gördüm.
Ferguson haberi algoritma dostu değildi. "Beğenilebilir" değildi. Kim "beğen"e tıklayacaktı? Yorum yapılması bile kolay değildi. Beğeniler ve yorumlar olmayınca algoritma bunu daha az insana gösteriyor olmalıydı, dolayısıyla görmüyorduk. Onun yerine, o hafta Facebook'un algoritması şunu ön plana çıkardı: ALS Buz Kovası Düellosu. İyi bir sebep; buzlu su dök, bağış yap, tamam. Fakat süper algoritma dostuydu. Makine bu kararı bizim için almıştı. Facebook tek kanal olsaydı çok önemli ancak etkili bir sohbet engellenmiş olabilirdi.
Şimdi sonuç olarak bu sistemler insan sistemlerine benzememesi bakımından da yanlış olabilir. Watson'ı hatırlıyor musunuz? IBM'in Riziko'da insan rakiplerini yenilgiye uğratan makine zekâsı sistemini? Harika bir oyuncuydu. Ancak o zaman, Riziko'nun finalinde Watson'a şu soru soruldu: "En büyük havaalanı adını İkinci Dünya Savaşı kahramanından alır, ikincisi İkinci Dünya Savaşı savaşından.
(Final Riziko müziği çalar)
Chicago. İki insan soruyu doğru anladı. Buna karşın Watson, Birleşik Devletler şehri olarak "Toronto" cevabını verdi. Bu etkileyici sistem bir insanın, ikinci sınıfa giden birinin asla yapmayacağı bir hata yapmıştı.
Makine zekâmız insanların hata şekline uymayan şekilde, beklemediğimiz ve hazırlıksız olduğumuz şekilde hata yapabilir. Kalifiye biri için işe alınmamak kötü olabilirdi, fakat bu, bazı alt programlarda bellek dolu dediği için oluyorsa üç kat daha kötü olurdu.
(Gülüşmeler)
Mayıs 2010'da Wall Steet'te olan Wall Street'in "satış" algoritmalarını bir geri bildirim döngüsünün körüklediği ani bir düşüş 36 dakika içinde trilyon dolarları sildi. Ölümcül otonom silahlar bağlamında "hata yapmak" ne demek bunu düşünmek bile istemiyorum.
Evet, insanlar her zaman ön yargıda bulunur. Karar vericiler ve geçit deneticiler mahkemelerde, haberlerde, savaşlarda... Hata yaparlar; işte benim asıl dikkat çekmek istediğim bu. Bu zor sorulardan kaçamayız. Kendi sorumluluklarımızı makinelere yaptıramayız.
(Alkışlar)
Yapay zekâ bize "etikten kurtul geç" kartı vermiyor.
Veri uzmanı Fred Benenson buna matematiksel yıkama diyor. Tam tersine ihtiyacımız var. Algoritmayı şüphe, gözlem ve inceleme ile desteklemeliyiz. Algoritmik izlenebilirlik, denetim ve anlamlı şeffaflığımız olduğundan emin olmamız gerek. Matematik ve programlamayı karmaşık, değer yüklü insani ilişkilere uygulamanın nesnellik getirmeyeceğini kabul etmemiz gerekiyor; aksine, insan ilişkilerinin karmaşıklığı algoritmaları ele geçiriyor. Tabii ki daha iyi kararlar almamız için bilgisayar kullanabiliriz, kullanmalıyız da. Ancak doğru karar vermek için, ahlaki sorumluluk alıp algoritmaları bu çerçevede kullanmak zorundayız, insan olarak birbirimize karşı olan sorumluluklarımızı üstümüzden atıp dış kaynaktan temin etmenin bir yolu gibi görmemeliyiz.
Makine zekâsı işte böyledir. Bu demektir ki, insani değerlere ve etiğe hiç olmadığı kadar sıkı sarılmamız gerekiyor.
Teşekkür ederim.
(Alkışlar)
Hiç yorum yok:
Yorum Gönder