Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri

Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri
“Bu, çocuklarımızı korumakla ilgili Yaygın olarak iki tür karma kullanılır: algısal ve kriptografik karma Gençler yetişkinlerle olan riskli çevrimiçi etkileşimlerde de artış bildirdiğinden, bu etkinlik rızaya dayalı veya baskı yoluyla gerçekleşebilir Aynı zamanda teknoloji platformlarının, kullanıcılarını ve kendilerini bu içeriği barındırmanın risklerinden korumasına yardımcı olmakla da ilgili

Her yıl milyonlarca CSAM dosyası çevrimiçi olarak paylaşılmaktadır Bu dosyaların büyük bir kısmı daha önce raporlanmış ve doğrulanmış CSAM

Thorn’un Stratejik Etkiden Sorumlu Başkan Yardımcısı John Starr, “Dijital olarak birbirine bağlı dünyamızda, çocuklara yönelik cinsel istismar materyalleri, günlük yaşamlarımızda kullandığımız platformlarda kolayca ve giderek daha fazla paylaşılıyor” dedi 000 bilinen CSAM dosyasının bulunmasıyla sonuçlandı Dijital topluluk yenilikçi platformlar oluşturdukça, yırtıcılar bu alanları çocukları sömürmek ve bu korkunç içeriği paylaşmak için kullanıyor

CSAM’yi internetten kaldırma

CSAM’yi internetten kaldırmak için teknoloji şirketlerinin ve STK’ların her birinin oynayacağı bir rol var


10 Ekim 2023Hacker HaberleriSiber Güvenlik / Çevrimiçi Güvenlik

Yakın zamanda yayınlanan bir rapora göre çocuklara yönelik bazı çevrimiçi riskler artıyor Dikenmisyonu çocukları cinsel istismardan korumak için teknoloji geliştirmek olan, kâr amacı gütmeyen bir teknoloji kuruluşudur Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC)’nin CyberTipline’ı, son beş yılda bildirilen çocuk cinsel istismarı materyalleri (CSAM) dosyalarında %329’luk bir artış gördü ”

2022 yılında Safer, müşterileri için 42,1 milyardan fazla görsel ve videoyu hashledi Her iki teknoloji de bir dosyayı benzersiz bir sayı dizisine dönüştürür

Bilinen CSAM külliyatının genişletilmesi

Karma ve eşleştirme, CSAM tespitinin temelidir Internet Watch Foundation, yalnızca 2021’den 2022’ye kadar SG-CSAM’de %9’luk bir artış kaydetti

  • Çevrimiçi avcılar daha küstah ve cazibelerini arttırmak için chatbotlar gibi yeni teknolojiler kullanıyorlar “Gençler ve yetişkinler arasındaki zararlı etkileşimler sadece internetin karanlık köşeleriyle sınırlı değil Sanki bir dijital parmak izi her içerik parçası için hash değeri ”

    Bu eğilimler ve Yükselen Çevrimiçi Eğilimler raporunda paylaşılan diğerleri, diğer çocuk güvenliği kuruluşlarının rapor ettikleriyle uyumludur






    siber-2

    Doğru araçlarla internet daha güvenli olabilir

    Raporlardaki artışa çeşitli faktörler katkıda bulunuyor olabilir:

    1. Daha fazla platform, karma ve eşleştirme kullanarak bilinen CSAM’yi tespit etmek için Thorn’un Safer ürünü gibi araçları kullanıyor Araştırma paylaşıldı Çocuklara Yönelik Cinsel İstismarda Ortaya Çıkan Çevrimiçi Eğilimler 2023 raporu, reşit olmayanların giderek daha fazla kendilerinin cinsel fotoğraflarını çekip paylaştıklarını gösteriyor

      Thorn tarafından geliştirilen proaktif CSAM tespitine yönelik bir araç olan Safer, bilinen 29 milyondan fazla CSAM karma değerini toplayan büyük bir veritabanına erişim sunar Bu metodoloji, teknoloji şirketlerinin bu yasa dışı içeriği platformlarından tanımlamasına, engellemesine veya kaldırmasına olanak tanır

      Bu sorunun boyutunu yalnızca teknoloji çözebilir

      Karma ve eşleştirme teknoloji şirketlerinin yardımcı olmak için kullanabileceği en önemli teknoloji parçalarından biridir Yalnızca 2022’de NCMEC 88,3 milyondan fazla CSAM dosyası aldı Starr, “İçerik barındırma platformları kilit ortaklardır ve Thorn, teknoloji endüstrisini çocuklara yönelik cinsel istismarla geniş ölçekte mücadele edecek araçlar ve kaynaklarla güçlendirmeye kararlıdır” diye ekledi İçerik bilindiğinden ve daha önce bir STK karma listesine eklendiğinden, kullanılarak tespit edilebilir

      CSAM’yi tespit etmek için içeriğe karma işlemi uygulanır ve elde edilen karma değerleri, bilinen CSAM’in karma listeleriyle karşılaştırılır karma ve eşleştirme Safer bugüne kadar müşterilerinin platformlarında iki milyondan fazla CSAM parçasını tanımlamasına yardımcı oldu

    Bu içerik, ister profil resmi ister geniş bulut depolama alanı olsun, kullanıcı tarafından oluşturulan içeriği barındıran her platform için potansiyel bir risktir Bu, platformlarında 520 Daha önce bildirilen ve doğrulanan içeriğin karma listeleriyle eşleştirmeye dayandığından, bir şirketin veritabanında eşleştiği bilinen CSAM karma değerlerinin sayısı kritik öneme sahiptir

    CSAM tespit araçlarını kullanan platform sayısı arttıkça, çevrimiçi ortamda çocuklara yönelik cinsel istismar materyallerinin endişe verici yükselişinin tersine çevrilme şansı da artar kullanıcıları ve platformları bu içeriği barındırmanın risklerinden koruyun aynı zamanda CSAM’nin viral yayılımını ve yeniden mağduriyet döngülerini bozmaya da yardımcı oluyor Safer ayrıca teknoloji şirketlerinin hash listelerini birbirleriyle (adlı veya anonim olarak) paylaşmalarına olanak tanıyarak bilinen CSAM’in külliyatını daha da genişleterek viral yayılımını engellemeye yardımcı olur

  • Kendi kendine oluşturulan CSAM (SG-CSAM) yükselişte

    Karma ve eşleştirme nedir?

    Basitçe söylemek gerekirse, karma oluşturma ve eşleştirme, CSAM’yi tespit etmenin ve çevrimiçi yayılmasını engellemenin programlı bir yoludur NCMEC, 2021’den 2022’ye kadar çocukların çevrimiçi ortamda cinsel eylemlere teşvik edildiğine ilişkin raporlarda %82’lik bir artış gördü