Teknoloji

Yapay zekanın olumsuz kullanımı adalet anlayışını zedeleyebiliyor

Doç. Dr. Faik Tanrıkulu, yapay zekanın olumsuz kullanımı ile ilgili, "Bu teknolojilerin değerlendirmelerine bağlı olarak insanların şüpheli kabul edilmesi adalet anlayışını zedeleyebiliyor." ifadesinde bulundu.

Yapay zekanın olumsuz kullanımı adalet anlayışını zedeleyebiliyor
16-10-2021 13:21
Ä°stanbul

İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu, yapay zekanın olumsuz kullanımı ile ilgili, "Bu teknolojilerin değerlendirmelerine bağlı olarak insanların şüpheli kabul edilmesi adalet anlayışını zedeleyebiliyor." dedi.

Yapay zeka teknolojileri eğitimden sağlığa, güvenlikten eğlenceye kadar hayatın her alanından kullanım alanlarını hızla genişletiyor. Özellikle tekrar eden ve rutin işlerde getirdikleri kolaylıkla iş hayatında merkezi bir rol oynamaya başlayan yapay zeka teknolojileri, güvenlik gerekçeleri ile özel hayatın gizliliği gibi konularda ise endişelere sebep oluyor.

İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu, AA muhabirine, son dönemde yapay zekanın olumsuz kullanımı sorunu ile ilgili görüşlerini paylaştı.

Ä°ktidarların hem sensörler hem de algoritmalar aracılığıyla sürekli farklı noktaları takip edebildiÄŸini belirten Tanrıkulu, "Bu konuda yeni teknolojileri kullanan ülkelerin başında Çin geliyor. Çin hükümeti bu süreçte insanların akıllı telefonlarını yakından izlemiÅŸ, yüz milyonlarca yüzü tanıyan kameraları kullanmaktan kaçınmamıştı. Hatta insanların vücut sıcaklıklarını, tıbbi durumlarını kontrol etmeye ve bildirmeye zorlamıştı. Bu kapsamda ülkelerin hem ulusal güvenlik hem de sınır yönetimi konusunda bu teknolojileri kullanması insan hakları açısından endiÅŸe verici olabiliyor. Zira yapay zekâ araçları gerek insanların profilini çıkararak artan suç ve terörist faaliyet alanlarını belirleyebilmek için sosyal medya gönderilerini, seyahat kayıtlarını ve suç istatistiklerini cezai muahede için kullanabiliyor. Bu teknolojilerin deÄŸerlendirmelerine baÄŸlı olarak insanların şüpheli kabul edilmesi adalet anlayışını zedeleyebiliyor." ÅŸeklinde konuÅŸtu.

Myanmar'daki şiddet olaylarının artmasında yapay zekanın rolü

Ä°nsan Hakları Ä°zleme Örgütü'nün Myanmar’ın askeri cuntasının arananlar listesini yüz ve plaka tanıma sistemiyle Çinli teknoloji ÅŸirketi tarafından saÄŸlanmasını eleÅŸtirdiÄŸini belirten Tanrıkulu, sözlerini şöyle sürdürdü:

"Ayrıca 20018 yılında Facebook’un kullandığı yapay zekâ algoritmalar belirli bir süre sonra ÅŸiddet içerikli sayfalar önermeye baÅŸlaması teknolojinin olumsuz kullanımını gözler önüne getirdi. Guardian gazetesinin bir rapora dayandırdığı haberde, Facebook Myanmar’daki darbe protestocularına karşı ÅŸiddeti teÅŸvik eden paylaşımları platformun kötüye kullanmasını kısıtlama sözü vermesine raÄŸmen kaldırmadı. Global Witness hak grubu, Facebook öneri algoritmasının kullanıcıları ÅŸirket politikalarını ihlal eden içeriÄŸi görüntülemeye devam ettiÄŸini tespit etti. Ayrıca ÅŸirketin küfürlü içerik barındıran asker yanlısı sayfa önerdiÄŸini ortaya çıkardı. Bu nedenle Myanmar’da ve Etiyopya’daki etnik çatışma da ÅŸiddetin artmasında bu platformun etkisi olduÄŸu ortaya çıktı. Myanmar’da nüfusun yarısını Facebook’u aktif kullanıyor. Dolayısıyla etkili olan bu platformun manipülasyon ve etkileÅŸim politikalarını yapay zekâ teknoloji ile yapıyor olması önemli. Åžirket yetkilileri kötüye kullanıldığını kabul ederek hatasını kabul etmiÅŸti."

Veri setleri ayrımcılığa ve ırksal önyargılara sebep olabiliyor

Yapay zeka destekli teknolojinin oluşturabileceği tehlikelere karşı uluslararası örgütlerin de harekete geçtiğine değinen Tanrıkulu, "Birleşmiş Milletler (BM) İnsan Hakları Konseyinin yayınladığı raporda, bu teknolojinin başta profil oluşturma, otomatik karar vermek ve makine öğrenimi dahil birçok özelliği ile insan hakları risklerini analiz ettiğini bildiriyor. Komiser Bachelet bu durumu felaket olarak yorumluyor. Raporun dikkati çeken yönü ise bu teknolojide kullanılan veri setlerinin hem ayrımcılığa hem de ırksal ve etnik önyargıları tetikleyecek sorunlara neden olacağını açıklıyor." diye konuştu.

Tanrıkulu, yapay zekanın mağduriyetlere sebep olmadan kullanılması için yapılması gerekenlere dair detaylar vererek, sözlerini şöyle sürdürdü:

"Sonuç olarak, yapay zekâ teknolojisi günümüz dünyasında hayatı kolaylaÅŸtıran imkanlar oluÅŸturduÄŸu gibi insan hakları ihlallerini görmemezlikten gelmek doÄŸru bir yaklaşım olmaz. Bu yönüyle ülkelerin ve karar vericilerin bu konuda daha fazla ÅŸeffaf, adil deÄŸerlendirme ve yapay zekanın kullanımının etkileri hususunda daha açık olmalı. Konunun uzmanları bu konuda uluslararası bir eylem planının çıkarılması görüşünde. Tam bu noktada bu teknolojilerin kullanımını kısıtlamadan ziyade, bu alanda çalışan ÅŸirketlerin uluslararası hukuk normlarına uyması ve denetlenebiliyor olması baÅŸlıca önemli hususlardan. Ancak ilk olarak günümüz ÅŸartlarına teknoloji ile geliÅŸen bu platformların ülkeler ve aktörler tarafından tarafsızca ele alınması ve mevzuatın oluÅŸması gerekiyor. Bu durumda yapay zekanın idari ve hukuki mekanizmaları ve uygulamaları gelecekte ülkelerin daha çok gündeminde olacak."

SİZİN DÜŞÜNCELERİNİZ?
FACEBOOK SAYFAMIZI TAKÄ°P EDÄ°N
ÇOK OKUNAN HABERLER
BUNLAR DA İLGİNİZİ ÇEKEBİLİR