Geçtiğimiz baharda yatırımcılara yapılan bir sunumda Anthropic, araştırma yapabilen, e-postaları yanıtlayabilen ve çeşitli arka ofis işlerini otonom bir şekilde yürütebilen yapay zeka destekli sanal asistanlar geliştirmeyi planladığını açıkladı. Şirket, bu projeyi “yapay zekanın kendi kendine öğrenmesi için yeni nesil algoritma” olarak tanımladı ve eğer her şey yolunda giderse, bu yapay zekanın ekonominin büyük bir kısmını otomatikleştirebileceğine inanıyor. Bu vizyonun gerçekleşmesi biraz zaman aldı, ancak Anthropic şimdi Claude 3.5 Sonnet modelinin yükseltilmiş bir versiyonunu tanıttı ve bu yapay zeka yavaş yavaş vaadini yerine getirmeye başladı.
Anthropic tarafından piyasaya sürülen yeni Claude 3.5 Sonnet modeli, "Bilgisayar Kullanımı" API'si aracılığıyla masaüstü uygulamalarıyla etkileşime girebiliyor ve şu anda açık beta sürümünde kullanılabiliyor. Bu API, modelin tuş vuruşlarını, fare hareketlerini ve tıklamaları taklit ederek, bir kullanıcının bilgisayar başında yaptığı işlemleri simüle etmesini sağlıyor. Anthropic, Claude’un ekran görüntülerini analiz ederek, arayüzlerde nasıl gezinileceğini ve doğru yere tıklamak için gerekli imleç hareketlerini hesaplayabileceğini açıkladı. Bu yeni özellik, Anthropic’in API’si, Amazon Bedrock ve Google Cloud’un Vertex AI platformu üzerinden erişilebilir durumda.
Bu ilerlemeye rağmen, masaüstü görevlerini otomatikleştirme fikri tamamen yeni değil. Eski RPA satıcılarından yeni girişimlere kadar çeşitli şirketler benzer araçlar geliştirdi. AI ajanları, hâlâ net bir tanımı olmayan bir terim olsa da, genel olarak yazılım görevlerini otomatikleştirebilen yapay zeka sistemlerini ifade eder. Salesforce, Microsoft ve OpenAI gibi büyük teknoloji şirketleri de büyüyen yapay zeka pazarını para kazandırmak amacıyla AI ajanlarına ciddi yatırımlar yapıyor. Anthropic, masaüstü seviyesinde komutlar gerçekleştirmeyi sağlayan bir "eylem-uygulama katmanı" oluşturmaya odaklanarak rakiplerinden ayrılıyor.
Ancak, yeni Claude 3.5 Sonnet modeli bazı sınırlamalara sahip. Uçak bileti rezervasyonu veya iade başlatma gibi görevlerle ilgili testlerde modelin başarı oranı yarıdan azdı ve kaydırma veya yakınlaştırma gibi temel eylemlerde zorluk yaşadı. Anthropic, bu eksiklikleri kabul ediyor ve geliştiricilere modeli denerken düşük riskli görevlerle başlamalarını tavsiye ediyor. Bu sorunlara rağmen, şirket modelin şimdi piyasaya sürülmesinin değerli veriler toplayıp zamanla iyileştirilmesine olanak tanıyacağını vurguluyor.
Anthropic, modelin kötüye kullanımını engellemek için bazı güvenlik önlemleri de uyguladı. Örneğin, modelin kullanıcı verileri üzerinde eğitilmesini engelliyor ve yüksek riskli eylemlerden, örneğin devlet web siteleriyle etkileşime girmekten kaçınılmasını sağlıyor. Şirket, olası seçimle ilgili kötüye kullanımın önlenmesi de dahil olmak üzere, zararlı kullanımları önlemeye odaklanmış durumda, ancak modelin tamamen güvenli olmadığını kabul ediyor. Bilgisayar Kullanımı API’sini kullanan geliştiricilere, istenmeyen sonuçları önlemek için modeli hassas verilerden izole etmeleri gibi önlemler almaları öneriliyor.