EESC, Yapay Zeka Risklerini Ele Alacak Güçlü Bir Değerler Çerçevesi Talep Ediyor

20.11.2024

 

Avrupa Birliği, yapay zekanın güvenilir ve etik bir şekilde kullanılmasını sağlamak için önemli adımlar atmıştır. Ancak eleştirmenler, mevcut düzenleyici çerçevenin toplumun yeterince korunmasını sağlamadığını savunmaktadır. Avrupa Ekonomik ve Sosyal Komitesi (EESC), yapay zekanın yol açabileceği çeşitli riskleri vurgulayarak, insan denetimini ön planda tutan ve sosyal paydaşların yapay zeka uygulamalarına dahil edilmesini içeren daha kapsamlı bir yaklaşım çağrısında bulunmaktadır.

EESC’nin en büyük endişelerinden biri, yapay zekanın iş kayıplarına ve eşitsizliklerin artmasına yol açma potansiyelidir. Otomasyon ve algoritmalık karar alma, iş güvencesini zayıflatabilir, iş yoğunluğunu artırabilir ve çalışanların özerkliğini azaltabilir. Ayrıca, yapay zeka iş yerlerinde izleme amacıyla kullanıldığında, çalışanlar üzerinde zorlu ve itiraz edilmesi güç performans metrikleriyle ruh sağlığına zarar verebilir.

Yapay zeka sistemleri, işe alım, terfi ve işten çıkarma gibi alanlarda ayrımcılığı sürdürme potansiyeline de sahiptir. Eğitim verilerindeki veya algoritmalarındaki önyargılar, adaletsiz uygulamalara yol açabilir ve AI sistemlerinin şeffaf olmaması, bireylerin kariyerlerini etkileyen kararları sorgulamalarını zorlaştırmaktadır. Ayrıca, yapay zekanın yüksek enerji tüketimi çevresel endişelere yol açmakta ve suç faaliyetlerinde kötüye kullanım riski, kritik altyapıyı korumak için güçlü güvenlik önlemleri gerektirmektedir.

Avrupa Birliği’nin, yapay zeka uygulamalarını dört risk seviyesine ayıran AI Yasası, bu alandaki ilk yasal çerçevedir. Yüksek riskli sistemler için güvenlik ve temel haklara saygıyı sağlamak adına sıkı gereksinimler getirmektedir. GDPR gibi düzenlemeler belirli korumalar sunsa da, yapay zekanın iş yerindeki özel zorluklarına tam anlamıyla cevap vermemektedir. AI Yasası, çalışan haklarını algoritmik yönetimle ilgili korumada eksik kalmakta ve Platform Çalışma Yönergesi ise sadece gig ekonomisi çalışanlarını kapsamakta, bu da diğer sektörlerde koruma boşlukları yaratmaktadır.

EESC, teknolojik ilerleme ile vatandaşların haklarının korunmasını dengeleyen insana odaklı bir yapay zeka yaklaşımını savunmaktadır. Bu model, sivil toplum paydaşlarıyla diyalog kurmayı ve iş gücünün yapay zeka ile karşılaşacağı zorluklara uyum sağlamak için eğitim ve beceri geliştirme programlarını teşvik etmektedir. EESC ayrıca, kamu hizmetlerinde yapay zekanın insan denetimi, şeffaflık ve bilgilendirilmiş onay ilkelerine dayalı olarak destekleyici bir rol oynamasını sağlamanın önemini vurgulamaktadır. Kişisel verilerin ihlallerinden ve saldırılardan korunması için güçlü siber güvenlik önlemleri gereklidir. Ayrıca, EESC, AB genelinde yapay zeka geliştirmeye yönelik koordineli yatırımlar çağrısında bulunarak, dijital tehditlere, yanlış bilgilendirmeye ve sosyal medyanın kötüye kullanımına karşı güvenli altyapı ve dayanıklılığı teşvik etmektedir.

tr_TRTurkish