TEKNOLOJİ

Sızdırılan belgeler, yapay zekanın aslında nasıl geliştirildiğini ortaya koydu

Yapay zeka teknolojilerinin gelişiminde kritik rol oynayan ancak çoğu zaman göz ardı edilen bir unsur, insan emeği olmaya devam ediyor. Özellikle “veri etiketleme” olarak bilinen süreç, yapay zeka algoritmalarını eğitmek için kullanılan metin, ses ve video gibi içeriklerin elle işlenmesini kapsıyor. Bu işlemi ise çoğunlukla Filipinler, Pakistan, Kenya ve Hindistan gibi ülkelerde, düşük ücretle çalışan serbest çalışanlar üstleniyor.

Veri etiketleyicileri, sadece yoğun ve tekrarlayan bir iş yüküyle değil, aynı zamanda nefret söylemleri, şiddet içerikleri ve cinsel içerikli materyalleri ayıklama gibi psikolojik olarak yıpratıcı görevlerle de karşı karşıya kalıyor.

İÇ YÖNERGELER ORTAYA ÇIKARILDI

ABD merkezli Inc. dergisi tarafından ortaya çıkarılan bir belge, veri etiketleme firması Surge AI’nin içerik moderasyonuna dair iç yönergelerini gün yüzüne çıkardı. Temmuz 2024 tarihli belgede, tıbbi tavsiyelerden cinsel içeriğe, nefret söyleminden şiddete kadar birçok alanda etik kurallar tanımlanıyor.

Surge AI, doğrudan büyük dil modeli (LLM) geliştiricilerine hizmet veren bir taşeron şirket olarak faaliyet gösteriyor. Anthropic’in Claude adlı yapay zeka modeli gibi sistemler için çalışan veri etiketleyiciler, şirketin yan kuruluşu DataAnnotation.Tech üzerinden istihdam ediliyor. Sızdırılan belgeler, bu çalışanların oldukça karmaşık etik kararlar almak zorunda bırakıldığını ortaya koyuyor.

ETİK SINIRLAR, YOKSUL BÖLGELERDE ÇALIŞANLARIN KARARIYLA ŞEKİLLENİYOR

Belgeler, yapay zeka sistemlerinin etik sınırlarının, çoğunlukla dünyanın daha yoksul bölgelerinde çalışan kişilerin kararlarıyla şekillendiğini gösteriyor. Ayrıca bu kişilerin, olası her senaryoyu önceden tahmin etmeleri bekleniyor; bu da uygulamada neredeyse imkansız bir görev olarak değerlendiriliyor.

Kılavuzlarda ayrıca, sohbet botlarının yasa dışı eylemleri teşvik etmemesi gerektiği vurgulanıyor. Ancak suç tanımının ülkelere göre değişmesi, bu konuda net bir sınır çizilmesini zorlaştırıyor. Örneğin, “bir ofis binasına nasıl girilir?” gibi doğrudan sorular yanıtsız bırakılırken, “genel güvenlik önlemlerinden kaçınma yolları” gibi dolaylı içeriklere izin verilebiliyor. Benzer şekilde, 3D yazıcılarla silah üretimi konusunda da benzer etik ikilemler mevcut.

ŞİRKETTEN AÇIKLAMA

Surge AI, belgelerin kamuoyuna yansımasının ardından yaptığı açıklamada, söz konusu kılavuzun birkaç yıl öncesine ait olduğunu ve yalnızca iç araştırma amaçlı hazırlandığını belirtti. Şirket, “Örnekler özellikle kışkırtıcı çünkü bir doktorun sağlığı anlaması için hastalığı tanıması gerektiği gibi, modellerimiz de güvenliği öğrenmek için riskleri tanımalı” açıklamasında bulundu.

Ancak bu açıklamalara rağmen uzmanlar, bugün oldukça zeki ve etik çizgileri belirli gibi görünen yapay zeka sistemlerinin, gerçekte düşük ücretle çalışan taşeron emekçilerin oluşturduğu kırılgan bir güvenlik ağına dayandığını vurguluyor. Büyük dil modelleri geleceğin teknolojisi olarak lanse edilse de, şimdilik bu teknolojilerin “vicdanı”, düşük gelirli ülkelerdeki insan emeğiyle şekilleniyor.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu