OpenAI, ChatGPT’deki zararlı içerikler için düşük ücretle Kenyalı çalıştırıyor
Sohbet robotu ChatGPT’yi geliştiren OpenAI’ın, yasa dışı içerikleri kontrol etmek amacıyla ek yapay zeka filtresi oluşturduğu ve bunun için Kenyalıları kullandığı iddia edildi.
Time dergisinde yer alan habere göre OpenAI’da saati 2 dolar gibi düşük ücretle çalışan Kenyalılar, sohbet robotundaki kötü içerikleri tarıyor. Bir tür yapay zeka görevi gören Kenyalı çalışanlar, çocukların cinsel istismarı, cinayet, işkence, intihar ve ensest içerikli metinlere müdahale ediyor.
OpenAI, yapay zekanın tüm insanlığa fayda sağlayacağını, ön yargıyı ve zararlı içeriği sınırlayacağını belirterek, güvenli ve kullanışlı sistemler oluşturmak amacıyla çok çalıştıklarını kaydediyor.
Afrikalı tarayıcılar ise içerik moderatörlüğü konusunda yakın zamana kadar Sama ve Meta (Facebook) ile birlikte çalışıyordu.
KAR ORANLARI YÜKSEK
Google ve Oxford araştırmacıları: Yapay Zeka insanları ortadan kaldırabilir
Haberi Görüntüle
San Francisco merkezli ABD firması Sama, kendisini “etik yapay zeka” şirketi olarak pazarlıyor ve 50 binden fazla insanın yoksulluktan kurtulmasına yardımcı olduğunu savunuyor.
Kenya Anayasası’nı ihlal ettiği iddiasıyla Sama ve Meta, eski bir içerik moderatörü tarafından dava edilmiş durumda.
OpenAI adına çalışan Sama’nın yüksek kar oranına karşın Kenyalı çalışanlara saatte 1,32 ila 2 dolar ödemesi, büyük eleştirilere neden oldu.
Sama ise dergiye yaptığı açıklamada, çalışanlardan vardiya başına yalnızca 70 pasajı etiketlemelerinin beklendiğini söyleyerek bu rakamlara itiraz etti.
GÜNDE 250 METİN OKUYORLAR
Bebekler yapay rahimde büyüyecek
Haberi Görüntüle
Kenyalı içerik ekiplerinin dokuz saatlik vardiyada yaklaşık 150-250 metin pasajı okumak ve etiketlemekle görevlendirildiği bildirildi. Sağlıklı yaşam danışmanlarıyla görüşme olanağı verilmiş olsa da birçok çalışan, dergiye yaptığı açıklamada, zihinsel olarak yaralanmış hissettiklerini belirtti.
Dergide yer alan belgeye göre, geçen yıl mart başlarında bir Sama çalışanı, iş yerinde cinsel içerikli hikayeye denk geldi. Metni etiketlemekle görevli Sama çalışanı, hikayede muğlak bir durumun söz konusu olduğunu fark etti. Kafası karışan çalışan, OpenAI araştırmacılarından metnin nasıl etiketleneceği konusunda açıklama istedi. “Bu pasaj, cinsel şiddet olarak etiketlenmeli mi, etiketlenmemeli?” sorusuna OpenAI’dan cevap gelmedi, gelse dahi bu açıklama belgelerde yer almadı.
OpenAI’dan olayla ilgili açıklama yapılmazken Sama çalışanı da Time dergisinin röportaj talebine yanıt vermedi. Bu olayın ardından birkaç hafta içinde Sama, OpenAI için yaptığı tüm çalışmaları iptal etti.
Average Rating