Yapay zeka sistemleri yaşamımızın farklı alanlarına yayıldıkça, bu sistemlerin sonucu olan etik, sosyal ve kültürel etkilerin barındırdığı problemli yanlar daha çok görünür olmaya başladı. Yüz tanıma sistemlerinde ortaya çıkan önyargılı sonuçlar, otomasyon teknolojisinde şirketlerin ve yazılımcıların sorumluluk alanındaki gri bölgeler, gizliliğimizi ihlal eden uygulamalar ve sonucunda güvenilirliğini yitiren sistemler ve kuruluşlar yapay zeka sistemlerinde sosyal ve etik açıdan endişe uyandıran örneklerden sadece birkaçı. Tam da bu noktada, yapay zeka etiği yapay zeka sistemleri ile ne yapmamız gerektiği, sistemlerin kendilerinin ne yapmaları gerektiği, yapay zeka sistemlerinin hangi riskleri barındırdıkları ve bu riskleri nasıl kontrol edebileceğimiz hakkında temel sorular soruyor. Yapay zeka sistemlerinin geliştirilme ve uygulama aşamalarında etik prensipler belirlemek ve bu prensipleri uygulamak adil, güvenilir, sorumlu, şeffaf ve sürdürülebilir sistemler geliştirmek için oldukça önemli.

Yapay Zeka Sistemlerinde Adalet ve Önyargı

Yapay zeka sistemlerinde adalet ve önyargı, cinsiyet, etnik köken ve yaş bakımından ayrımcılık barındıran tutumlar sergileyen sistemler konusunda oldukça tartışmalı bir alan. Yapay zeka sistemleri ile insanlar arasında bir güven bağının kurulabilmesi için bu sistemlerin adil kararlar veren, önyargılardan ve kalıp yargılardan kaçınan sistemler olması gerekiyor. Bunu sağlamak için ise, yapay zeka sistemlerini geliştirirken gerek veri setleri aracılığı ile gerekse geliştiricilerin kendi kişisel ve ideolojik tutumları aracılığıyla sistemlerin içerisine önyargının sızmadığından emin olunması gerekiyor. Sistemlerin içerisine önyargıların sızması için birincil ve en önemli araç eğitim veri setleri olarak karşımıza çıkıyor. Algoritmalar matematiksel ve istatistiksel hesaplamalardan oluşan nötr sistemler olarak değerlendirilse de, verinin nötr olmadığı ve içerisinde yargılar barındırdığını söylemek yanlış olmaz. İnsanlar tarafından oluşturulan, toplanan ve işlenen veri setleri içerisinde insanların kişisel önyargılarını, düşüncelerini ve ideolojilerini barındırırken; tarihsel verilerde ise tarihsel önyargılar mevcut olabiliyor. Peki, yapay zeka sistemlerine sızan önyargılar toplum için nasıl bir zarar yaratabilir?

Önyargılı ve adil olmayan yapay zeka sistemleri kullanıcılar üzerinde ekonomik ve temsiliyet konusunda zararlar yaratabilir. Ekonomik zararlar kredi başvuruları ve iş başvuruları gibi kullanıcıların ekonomisini etkileyen alanlarda ortaya çıkıyor. Örneğin, Amazon geliştirdiği yapay zeka destekli işe alım uygulamasının teknik işlerde erkekleri kadınlardan daha çok tercih ettiğini farketmesi sonucu uygulamayı kullanmayı bıraktı. Bu durumda, teknik işlere uygun olan kadınların sadece cinsiyetlerinden dolayı işlere tercih edilmediklerini görüyoruz. Bu da önyargı içeren bir sistemin kullanıcılar üzerinde nasıl ekonomik zararlar yaratabileceğine yönelik bir örnek. Temsil konusunda oluşan zararlar da etnik köken, cinsiyet, sosyal sınıf gibi özelliklerinden dolayı bir grubun ikincil konuma itilmesi olarak gerçekleşiyor. Eğer bir sistem belirli bir gruba yönelik sistematik bir şekilde negatif tutum sergiliyorsa, bu o sistemin temsiliyet zararı verdiğini gösteriyor.

Adil yapay zeka sistemleri geliştirmek için veri setlerinde önyargılı bilgilerin yer almaması veya veri setinin önyargıdan arındırılması gerekiyor. Ancak, içerisinde önyargı barındırmayan bir veri seti oluşturduktan sonra buna uygun bir model geliştirmek ve modeli de geliştirdikten sonra test etmek gerekiyor. Yapay zeka sistemlerini kullanıcılara açmadan önce test etmek, istenmeyen sonuçların ortaya çıkmasını büyük oranda önlüyor. Dolayısıyla bu noktalarda yazılımcılara ve şirketlere büyük bir iş düşüyor. Bu doğrultuda, farklı pespektiflerden, arka planlardan, etnik kökenlerden, cinsiyetlerden, bakış açılarından gelen insanların bir arada çalışması adil sistemler geliştirmek için büyük bir önem kazanıyor.

Joy Buolamwini yüz tanıma sistemleri üzerine yaptığı bir araştırmada Microsoft, IBM ve Face++ algoritmalarının siyahi bir kadının cinsiyetini tespit etmede beyaz bir erkeğe göre hatalı sonuç verme oranının daha yüksek olduğunu tespit etti.

Yapay Zeka Sistemlerinde Sorumluluk ve Sürdürülebilirlik

Yapay zeka sistemlerinde sorumluluk kavramı, şirketlerin, geliştiricilerin, algoritmaların ve kullanıcıların sistem üzerindeki sorumluluk alanını inceliyor. Özetle, sorumluluk kavramı yapay zeka sistemlerinde bir eylemin sonucunun kimden veya neyden kaynaklı olarak gerçekleştiği ve bu eylem sonucunda kimin sorumlu tutulacağı konusunu irdeliyor. Özellikle, otonom teknolojilerin insan müdahalesi ve kontrolü gerekmeden kendi kendine karar veren ve harekete geçen yapısı sorumluluk ekseninde oldukça tartışılıyor. Otonom teknolojiler dediğimizde Tesla’nın otonom araçları ya da endüstriyel üretim yapan bir fabrikada ürün hatalarını tespit etmek üzerine çalışan sistemleri örnek olarak gösterebiliriz. Bu noktada, yapay zeka sistemlerinde sorumluluk alanının net ve kesin çizgiler ile belirlenmesinin önemini anlamak için otonom sürüş  teknolojisine sahip bir aracın kaza yapma ihtimalini düşünebiliriz. Otonom sürüş teknolojisine sahip bir araç yolda ilerlerken önüne birden bire bir çocuk çıktığını ve aracın iki seçeneği olduğunu varsaydığımızda, araç ya çocuğa çarpacak ve çocuk hayatını kaybedecek ya da bariyerlere çarpacak ve araç içerisindeki kişi hayatını kaybedecek. Araç hangi eylemi gerçekleştirirse gerçekleştirsin, hayatını kaybeden kişi için birinin sorumlu tutulması gerekiyor. Bu noktada şirket mi sorumlu, geliştiriciler mi, yapay zeka sistemi mi, yoksa sürücü mü?

Temel olarak, bu teknolojilerin kapsamı yani sorumluluk alanı ne kadar genişlerse barındırdığı riskler de toplumsal ve etik açıdan o kadar büyük oluyor. Bu bağlamda, sistemlerde şeffaflığın sağlanması hem yazılımcılar ve şirketler için riskleri öngörme konusunda avantaj sağlıyor hem de kullanıcıların talep edebileceği “açıklama hakkının” da karşılanmasını sağlıyor. Böylece, geliştirilen ürünlerde istenmeyen veya beklenmedik sonuçlar meydana geldiğinde toplumun hesap verilebilirlik ihtiyacı karşılanabiliyor.

Yapay Zeka Sistemlerinde Gizlilik

Yapay zeka sistemlerinde gizlilik konusu, “kişisel verilerimizin nasıl toplandığı, bu verilerle ne yapıldığı ve gizlilik haklarımızın nasıl saldırıya uğradığı” sorularına odaklanıyor. Burada, kullanıcılar, teknoloji geliştiriciler ve hükümetler kişisel verilerin korunması konusunda farklı hareket alanlarına sahipler. Kişisel verilerin korunması yönünde kullanıcıların veri paylaşımı konusunda bilinç düzeyinin artırılması ve paylaştıkları verinin değerinin farkında olarak bilinçli birer kullanıcı olmaları oldukça önemli. Ancak, kullanıcı bilinci ne kadar yüksek olursa olsun bazı uygulamaların veri paylaşımı karşılığında servis sağlaması kullanıcılar için hareket alanını daraltan bir etken oluyor. Bu noktada kullanıcılar için koruma sağlayan uygulamalar ise hükümetlerin kişisel verileri koruma yönünde geliştirdiği kanun ve yönetmelikler oluyor.

Hükümetlerin kişisel verilerin korunması kapsamında geliştirdiği yönetmelikler arasında, en kapsamlı koruma sağlayan kanun GDPR olarak öne çıkıyor. GDPR Avrupa Birliği ülkeleri ve vatandaşları için geçerli olan kişisel verilerin korunması kanununu oluşturuyor ve 2018 yılında geniş kapsamıyla uygulanmaya başlandı. GDPR temel olarak kullanıcı rızasının alınması konusuna hassasiyet gösteriyor. GDPR’a göre kişisel veriler ancak sınırları belli alanlar dahilinde, öngörülen şartlarda ve kullanıcı rızası alınarak işlenebiliyor. Bu noktada da bireylerin veri paylaşımında hangi verileri ne için paylaştığı konusunda bilinçlendirilmesini hedefliyor. Türkiye’de yürürlükte olan KVKK’nın da GDPR’a benzer bir kapsama sahip olduğunu söyleyebiliriz.

Yapay zeka sistemlerinde gizlilik konusunda bir diğer önemli aktör ise teknoloji şirketleri, yazılımcılar ve veri bilimi uzmanları. Şirketler, yazılımcılar ve veri bilimi üzerine çalışan kişilerin geliştirilen teknolojide kişisel verilerin korunması yönünde gösterdikleri hassasiyet oldukça önemli. Bu noktada, teknoloji geliştiriciler için;

  1. Veri oluşturma
  2. Depolama
  3. Kullanma
  4. Paylaşma
  5. Arşivleme
  6. İmha Etme adımlarında kişilerin gizlilik haklarını ihlal etmeyen hassas uygulamaların hayata geçirilmesi gerekiyor.

Yapay Zeka Sistemlerinde Güven ve Şeffaflık

Yapay zeka etiğinde, şirketlerin yapay zeka sistemlerinin geliştirilme sürecinde uyguladığı şeffaflık kullanıcı ekseninde güven oluşması için oldukça önemli. Yapay zeka sistemlerine güven, hem şirket politikaları ile şirkete yönelik hem de şirketlerin hayata geçirdiği sistemler ile süreçlere yönelik olarak gerçekleşebiliyor. Yapay zeka sistemleri, yaşamın birçok alanında bizim için karar alırken bu kararların önyargılardan, kalıp yargılardan ve kişisel düşüncelerden uzak; mantıklı ve açıklanabilir kararlar olması sisteme güven duymamız için oldukça önemli. Bu noktada, sistemlerin adil tutumu ve etnik köken, cinsiyet, sosyal sınıf gibi kriterlere bakmadan eşit yaklaşımda işlemesi kişilerin sistemlere güvenmelerini sağlayan bir unsur olarak karşımıza çıkıyor.

Ancak, sadece verinin hatasız olması tek başına yeterli değil. Bu sistemler birçok insanın kişisel verilerini barındırıyor ve kritik alanlarda rol oynuyorlar. Dolayısıyla, sistemin sağlam olması yani herhangi bir olumsuz dış etkiye karşı güvenli ve emniyetli olması gerekiyor. Eğer bir uygulamayı kullandığımızda herhangi bir şekilde manipülasyona ya da yanlış kullanıma yol açmayacağına inanıyorsak sisteme olan güvenimiz pekişiyor. Buna ek olarak ise, şeffaf süreçlere sahip ve açıklanabilir yapay zeka sistemleri geliştirerek kullanıcıların sistemlerin işleyişini anlamaları sağlanabiliyor. Böylece, kullanıcı ve geliştirilen teknoloji arasındaki uçurum ortadan kalkarak neyin, neden, nasıl, ne için kullanıldığı konusunda kullanıcıların bilinç düzeyinde artış yaşanmış oluyor. Bilinç düzeyi artan kullanıcı, kullandığı sistemi ve bunu üreten şirketi sorgulama imkanına sahip olabiliyor. Şeffaf sistemler ve süreçler geliştirmek kullanıcılar için avantaj sağladığı kadar, geliştiriciler için de sistemlerin kontrolü konusunda fayda sağlıyor. Bu sayede, geliştiriciler sistemlerin geçmiş takibini yapabiliyorlar, hangi durumlarda hata verdi, hangi durumlarda iyileştirme gerekiyor gibi birçok teknik detayı takip edebiliyorlar ve olası riskleri öngörebiliyorlar. Böylelikle, şirketler ve yazılımcılar geliştirdikleri teknoloji üzerinde daha çok kontrol sahibi oluyorlar ve güvenli sistemler geliştirebiliyorlar.

Sonuç

Yapay zeka sistemlerinde önyargı, sorumluluk, gizlilik ve şeffaflık adımlarına dikkat ederek adil, güvenli, sorumlu ve sürdülebilir sistemler geliştirilebilir. Bu sistemlerin ilk geliştirme aşamalarında her ne kadar sadece “teknik yapabilirlik” kıstasına dikkat edilmiş olsa da ve teknik geliştirmeler üzerine çalışılmış olsa da, sosyal yaşama adapte olan sistemlerin sosyal, kültürel ve etik değerler ile uyumlu olması her geçen gün daha da önem kazanıyor. Bu nedenle, bu sistemler neden geliştiriliyor, veriler nasıl toplanıyor, hangi verilerimiz kullanılıyor, verilerimiz ile ne yapılıyor, hangi alanlarda yapay zeka algoritmaları kullanılıyor olabilir, bugün yapay zeka sistemleri benim için hangi kararları verdi sorularını sormak ve bunun gibi daha birçok soruya yanıt aramak bugünün yapay zeka sistemleriyle donatılmış bir dünya için kaçınılmaz oluyor.

Kaynaklar

Buolamwini, Joy. Gender Shades: http://gendershades.org/

Baylé, Marion: https://uxdesign.cc/ethical-dilemmas-of-ai-fairness-transparency-human-machine-collaboration-trust-accountability-1fe9fc0ffff3

Vincent, James. The Verge: https://www.theverge.com/2019/4/3/18293410/ai-artificial-intelligence-ethics-boards-charters-problem-big-tech

Johnson, Khari. Venture Beat: https://venturebeat.com/2020/03/10/microsoft-researchers-create-ai-ethics-checklist-with-ml-practitioners-from-a-dozen-tech-companies/

Stanford Encyclopedia of Philosophy: https://plato.stanford.edu/entries/ethics-ai/

IBM: https://www.research.ibm.com/5-in-5/ai-and-bias/

IBM: https://www.ibm.com/design/ai/ethics/accountability/

Ethical Intelligence, Putting Ethics Into Action Course: https://course.ethicalintelligence.co/courses