06.02.2024
Meta, 2024 seçim sezonuna yönelik beklentiler doğrultusunda, özellikle üçüncü taraf araçlar tarafından oluşturulan yapay zeka destekli görüntüleri tanımlamak ve etiketlemek için çaba harcadığını duyurdu. Yapay zeka araçlarının yaygınlaşması, bilgi ekosistemine yönelik bir tehdit oluşturduğundan, Meta şeffaleti artırmak amacıyla önlemler almaya karar verdi.
Yaklaşan aylarda, Meta, Google, Microsoft, OpenAI, Adobe, Midjourney ve Shutterstock gibi büyük şirketlerin araçlarıyla üretilen görüntüler için "Yapay Zeka Üretimi" etiketleri eklemeyi planlıyor. Bu etiketleme girişimi, Meta'nın içinde geliştirdiği yapay zeka üreteç aracını kullanarak oluşturulan fotorealistik görüntülere "AI ile oluşturuldu" etiketleri eklemesinin bir uzantısıdır.
Meta, önde gelen yapay zeka araç geliştiricileriyle iş birliği yaparak, görüntülerin içine gömülmüş görünmez meta veriler veya filigranlar gibi ortak teknik standartlar oluşturmayı amaçlıyor. Bu sayede sistemlerinin çeşitli araçlarla üretilen yapay zeka içeriğini tanıyabilmesi mümkün olacak. Etiketler, Facebook, Instagram ve Threads gibi Meta'nın platformlarına, çoklu dillerde yayılacak.
Meta'nın duyurusu, çeşitli ülkelerdeki 2024 seçimleri öncesinde, online bilgi uzmanları, yasama organları ve teknoloji yöneticileri arasındaki endişelerle uyumludur. Bu endişeler, yapay zeka tarafından üretilen gerçekçi görüntülerin sosyal medyanın hızlı yayılma gücüyle birleşerek yanlış bilgiyi yayma ve seçmenleri yanıltma potansiyeline dairdir.
Meta Global İlişkiler Başkanı Nick Clegg, yapay zeka üretilen içeriği şeffaf bir şekilde etiketlemenin önemini vurgulayarak, "İnsanlar genellikle ilk kez yapay zeka üretilen içerikle karşılaşıyorlar, ve kullanıcılarımız bize bu yeni teknoloji etrafında şeffaflığı takdir ettiklerini söylediler." dedi. Clegg, kullanıcı tercihlerini ve yapay zeka teknolojilerinin evrimini anlamak için önemli olan bu şeffaletin 2024 yılında, dünya çapında birçok önemli seçim içeren bir yıl olduğunu vurguladı.
Meta'nın yapay zeka üretilen görüntüler için endüstri standardı etiketleyicileri, henüz yapay zeka tarafından üretilen videolara ve seslere uygulanmayacak. Ancak şirket, kullanıcıların paylaşılan video veya ses içeriğinin yapay zeka tarafından oluşturulup oluşturulmadığını belirlemelerine olanak tanıyan bir özellik eklemeyi planlıyor. Kullanıcıların, dijital olarak oluşturulan veya değiştirilen gerçekçi video veya ses için bu açıklamayı yapmaları gerekecek, uygunsuz davranışlar için potansiyel yaptırımlar söz konusu olabilir.
Clegg, yapay zeka tarafından üretilen içeriğin kamuyu önemli konularda yanıltma riski taşıdığı durumlarda, daha belirgin bir etiket uygulanabileceğini belirtti. Şirket aynı zamanda kullanıcıların yapay zeka tarafından üretilen görüntülerden görünmez filigranları kaldırmalarını engelleme konusunda aktif bir şekilde çalışıyor, bu evrilen alandaki olası karşıt eylemleri ele almanın önemini anlıyor. Clegg, içeriğin yapay zeka tarafından oluşturulup oluşturulmadığını belirlerken hesaba katılabilecek unsurları düşünmeleri konusunda kullanıcılara tavsiyede bulundu.