
Meta, platformlarında kullanılan teknolojilerin güvenliğini ve etkilerini değerlendiren insan ekiplerini geri plana alıyor. Şirketin sızdırılan yeni belgelerine göre, bu süreçteki görevlerin yaklaşık yüzde 90’ı artık yapay zeka sistemleri tarafından yürütülecek. Önceden yalnızca “düşük riskli” güncellemeleri analiz etmekle sınırlı olan yapay zeka, artık çok daha kritik kararlar için devreye giriyor.
Bu dönüşüm, uygulama güncellemelerini ve ürün geliştirmelerini hızlandırma amacı taşısa da, içeriden bazı kaynaklar bu adımın kullanıcı güvenliğini tehlikeye atabileceğini düşünüyor. Özellikle genç kullanıcılar, yapay zekanın yanlış değerlendirmelerine karşı daha savunmasız hale gelebilir.
Meta’nın Otomasyon Hamlesi Endişe Yaratıyor
Yeni sistem kapsamında, ürün geliştirme ekipleri artık çevrimiçi anketleri doldurarak risk değerlendirmelerini anında alabiliyor. Bu da mühendislerin daha fazla karar yetkisi elde etmesine yol açıyor. Ancak sistemin hızlı olması, her zaman doğru kararlar verdiği anlamına gelmiyor. Meta’nın daha önce “sadece düşük riskli” alanlarda kullanılacağını belirttiği yapay zeka, artık içerik denetimi, genç kullanıcı riskleri ve yapay zeka güvenliği gibi hassas konulara da müdahil oluyor.
Geçtiğimiz ay Meta, insan faktörünü neredeyse tamamen dışlayan bir karar alarak manuel bilgi doğrulama programını sonlandırmıştı. Yerine, kullanıcıların katkısıyla çalışan Topluluk Notları sistemi getirilmiş ve içerik moderasyonu tamamen algoritmalar üzerinden yürütülmeye başlanmıştı. Ancak bu algoritmaların sıklıkla yanlış içerikleri işaretlediği ya da zararlı içerikleri gözden kaçırdığı da biliniyor.
Meta Denetleme Kurulu’nun geçtiğimiz ay yayınladığı bir raporda da bu durum eleştirildi. Raporda, otomatik denetim sistemlerinin insan hakları üzerinde yaratabileceği olumsuz etkilerin global ölçekte göz önünde bulundurulması gerektiği belirtildi. Özellikle çatışma yaşayan ülkelerde otomatik sistemlerin eşit olmayan sonuçlara yol açabileceği uyarısı yapıldı.