Google, Meta, Discord ve daha fazlası çevrimiçi çocuk istismarıyla mücadele için güçlerini birleştiriyor - Dünyadan Güncel Teknoloji Haberleri

Google, Meta, Discord ve daha fazlası çevrimiçi çocuk istismarıyla mücadele için güçlerini birleştiriyor - Dünyadan Güncel Teknoloji Haberleri
Koalisyon üyeleri son iki yıldır Lantern’i geliştiriyor ve grup, teknik çözümler üretmenin yanı sıra programı “uygunluk incelemesinden” geçirmesi, yasal ve düzenleyici gerekliliklerle uyumlu ve “etik açıdan uyumlu” olmasını sağlaması gerektiğini söylüyor

Lantern, şirketlerin verilere katkıda bulunabileceği ve kendi platformlarını kontrol edebileceği merkezi bir veritabanı görevi görüyor


Lantern adlı yeni bir program, Meta ve Discord gibi çevrimiçi şirketler arasında platformlar arası sinyal paylaşımı yoluyla çevrimiçi çocuk cinsel istismarı ve istismarıyla (OCSEA) mücadele etmeyi amaçlıyor 000’den fazla Facebook Profili, Sayfası ve Instagram hesabını” kaldırmak ve bunları Ulusal’a bildirmek için kullanıldığı belirtildi

Koalisyon Lantern’i denetleyecek ve veri paylaşımına ilişkin net yönergeler ve kurallar oluşturmaktan kendisinin sorumlu olduğunu söylüyor Çevrimiçi çocuk cinsel istismarıyla mücadele etmek amacıyla ortak bir amaca sahip bir grup teknoloji işletmesi olan Tech Coalition, bugünkü duyuruda şunu yazdı Programın, potansiyel kurbanları başka platformlara taşıyarak avcıların tespit edilmekten kaçınmasını engellemeye yönelik bir girişim olduğu belirtiliyor Kayıp ve İstismara Uğrayan Çocuklar Merkezi a:hover]:text-gray-63 [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-bd dark:[&>a:hover]:shadow-underline-gray [&>a]:shadow-underline-gray-63 dark:[&>a]:text-gray-bd dark:[&>a]:shadow-underline-gray">Resim: Teknoloji Koalisyonu

Meta yazdı Programa katılımını duyuran bir blog gönderisinde Lantern’in pilot aşamasında programın ortaklarından biri olan Mega tarafından paylaşılan bilgilerin “ihlal eden 10

Koalisyonun duyurusunda ayrıca Discord’un güven ve güvenlik sorumlusu John Redgrave’den alıntı yapılıyor: “Discord aynı zamanda program aracılığıyla bizimle paylaşılan veri noktalarına göre hareket etti ve bu da birçok dahili soruşturmaya yardımcı oldu ”

Bunun gibi programların en büyük zorluklarından biri, yeni sorunlar yaratmadan etkili olmasını sağlamaktır Duyuruda, sinyallerin kötüye kullanımı kesin olarak kanıtlamasa da şirketlerin araştırma yapmasına ve muhtemelen bir hesabı kapatmak veya etkinliği yetkililere bildirmek gibi eylemlerde bulunmasına yardımcı olduğu belirtiliyor Birkaç grup, Apple’ın artık iptal edilen otomatik iCloud fotoğraf kütüphanesi CSAM tarama özelliğinde de benzer sorunların ortaya çıkabileceği konusunda uyardı ”

Şu ana kadar Lantern’e katılan şirketler arasında Discord, Google, Mega, Meta, Quora, Roblox, Snap ve Twitch yer alıyor 2021’de yaşanan bir olayda, bir baba, çocuğunun kasık enfeksiyonu resimleri nedeniyle Google’ın kendisini CSAM için işaretlemesinin ardından polis tarafından soruşturuldu

a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63">Fenerin nasıl çalıştığını gösteren bir görselleştirme



genel-2

Programın bir parçası olarak şirketlerin zorunlu eğitimleri ve rutin kontrolleri tamamlaması gerekiyor ve grup, politikalarını ve uygulamalarını düzenli olarak gözden geçirecek Şirketler, OCSEA politikasını ihlal ettiği bilinen e-posta adresleri veya kullanıcı adları, çocukların cinsel istismarına yönelik materyal (CSAM) karmaları veya CSAM anahtar kelimeleri gibi sinyaller gördüklerinde, bunları kendi sistemlerinde işaretleyebilirler