Gündem

TikTok’ta canlı yayınlarda denetim yetersiz mi?

İSTANBUL (İGFA) – TikTok’ta canlı yayın içeriklerinin gerçek zamanlı olarak denetlenmesi konusunu değerlendiren Doç. Dr. Aylin Tutgun Ünal, TikTok platformu, Topluluk Kurallarına aykırı olan zararlı içerikleri ve davranışları belirleyip kaldırmak için hem otomatik değerlendirme hem de insan değerlendirmesini kullandığını belirterek, bu önlemlerin yeterliliği konusunda bazı endişeler ve tartışmalar devam ettiğini söyledi.

Canlı yayın içeriklerinin gerçek zamanlı olarak denetlenmesi için kullanılan teknolojilerin genellikle yapay zeka ve makine öğrenimi algoritmalarını içerdiğini kaydeden Doç. Dr. Aylin Tutgun Ünal, “Yapay zeka ve makine öğrenimi, gerçek zamanlı içerik işleme için ölçeklenebilir (scalable) çözümler sunarak platformların uygunsuz içerikleri hızlı ve verimli bir şekilde tespit edip kaldırmasını sağlar. Geçmişte manuel olarak yapılan içerik moderasyonu insan moderatörlere dayanıyordu ve büyük veri ile baş etmede ölçeklenebilir çözümler sunmadığı için uygun değildi. Günümüzde sosyal medya gibi büyük veri barındıran mekanizmaların gerçek zamanlı denetlenebilmesi yapay zeka ve makine öğrenimi algoritmaları içeren teknolojilerle mümkün” diye konuştu.

YAPAY ZEKA DESTEKLİ TEKNOLOJİLER NE KADAR BAŞARILI?

Bu teknolojilerin; sesli içerik moderasyonu, görüntü içerik moderasyonu, metin içerik moderasyonu, gerçek zamanlı izleme ve tespit, yapay zeka destekli iletişim gibi teknolojiler olduğunu anlatan Doç. Dr. Aylin Tutgun Ünal, “Bu teknolojilerin çalışma prensiplerine değinecek olursak; canlı yayın sırasında kullanılan yazılı metinleri analiz eden yapay zeka algoritmaları küfür, nefret söylemleri veya diğer uygun olmayan içerikleri tespit edebilir. Ya da sesli içerik moderasyonu, sesli içeriği metne dönüştürür ve canlı yayın sırasında kullanılan ifadeleri ve söylemleri analiz eder, uygun olup olmadığını kontrol eder. Gerçek zamanlı olarak içeriklerin uygun olup olmadığını yapay zeka hemen tespit edebilir. Bu da insan moderatörlerin yükünü azaltmakla kalmayıp içeriklerin daha hızlı yönetilmesini sağlar. Twitch, YouTube Live ve Facebook Live gibi platformlar, bu teknolojileri kullanarak izleyicileri korumayı, daha güvenli ve keyifli bir deneyim sunmayı amaçlıyor. Ne kadar başarılı oldukları ise tartışma konusu.” dedi.

ÖNLEMLERİN YETERLİ OLABİLMESİ İÇİN NELER YAPILMALI?

Alınan önlemlerin yeterli olabilmesi için daha etkili bir denetim sisteminin oluşturulup işe katılması gerektiğine de dikkat çeken Doç. Dr. Aylin Tutgun Ünal, “Bu sistemde olması gereken bileşenler; Gelişmiş yapay zeka ve makine öğrenimi, Gerçek zamanlı izleme, kullanıcı raporlama sistemleri, eğitim ve farkındalık, insan moderatörler, güçlü topluluk kuralları ve yaptırımlar olarak sıralanabilir. Bu noktada, Aile ve Sosyal Hizmetler Bakanlığı, TikTok ve diğer sosyal medya platformlarıyla şiddet ve istismar içerikli yayınlar konusunda görüşmeler yaparak, daha etkili adımlar atmayı planlıyor. Bu noktada, sosyal medya platformları kapsamında düzenlenecek politikaların denetim mekanizmalarındaki öneminden bahsedebiliriz. Topluluk kurallarının net bir şekilde belirlenmesi ve ihlallerin ciddi yaptırımlarla karşılanması, kullanıcıların bu kurallara uymasını teşvik edecektir.” diye konuştu.

TİKTOK GİBİ PLATFORMLARIN SORUMLULUKLARI NELERDİR?

Bu arada Tik Tok gibi sosyal medya platformlarının, şiddet içerikli olayların yayılmasını önlemek ve kullanıcıları korumak için çeşitli sorumluluklara sahip olduğunu ifade eden Doç. Dr. Aylin Tutgun Ünal, bu sorumlulukları şu şekilde sıraladı:

1- Topluluk kuralları ve politikalar: Şiddete teşvik eden veya şiddet içeren içeriklerin paylaşılması yasaklanmalıdır.

2- İçerik moderasyonu: Hem otomatik değerlendirme sistemleri hem de insan moderatörler kullanarak içerikler denetlenmelidir. Şiddet içerikli içerikler tespit edildiğinde, bu içerikler hızla kaldırılmalıdır ve ihlal eden hesaplar hakkında gerekli önlemler alınmalıdır.

3- Gerçek zamanlı izleme ve müdahale: Şiddet içerikli olayların anında tespit edilmesi ve müdahale edilmesi için gerçek zamanlı izleme sistemi kullanılmalıdır. Bu, kullanıcıların güvenliğini sağlamak için kritik bir adımdır.

4- Kullanıcı raporlama sistemleri: Kullanıcılar, şiddet içerikli içerikleri rapor edebilir ve bu raporlar hızlı bir şekilde değerlendirilmelidir. Böylece, topluluk üyelerinin platformun güvenliğine katkıda bulunması sağlanır.

5- Eğitim ve farkındalık: Şiddet içerikli içeriklerin zararları konusunda kullanıcıları eğitmek ve farkındalık yaratmak için çeşitli kampanyalar ve programlar düzenlenmelidir.

İlgili Makaleler

Başa dön tuşu