ÇOCUK GÜVENLİĞİ POLİTİKASI
Amaç
Bu Çocuk Güvenliği Politikası 18 yaş altındaki bireylerin korunmasını sağlamak amacıyla hazırlanmıştır. Ayrıca bu belge çocuk güvenliği ile ilgili temel kavramları tanımlar, ilke ve davranış kurallarını belirler, ilgili ilke ve davranışların uygulanmadığı durumlarda atılacak adımların çerçevesini çizer.
TAKIL BANA olarak, platformumuzda çocukların güvenliğini en yüksek öncelik olarak görüyoruz. Çocuk istismarını, suistimalini, yasa dışı faaliyetleri, zararlı içerikleri ve çocukların herhangi bir şekilde platformumuzda yer almamasını önlemek amacıyla sıkı güvenlik önlemleri ve denetim mekanizmaları uygulamaktayız.
Bu politikanın temel amacı:
- Çocukların Korunması: 18 yaş altındaki bireylerin platformumuzda herhangi bir şekilde yer almasını önlemek için yaş doğrulama ve fotoğraf denetim süreçlerini uygulamak.
- Zararlı İçeriklerin Önlenmesi: Çocuk istismarı, cinsel içerikli çocuk görselleri, yasa dışı faaliyetler ve çocuklara yönelik her türlü zararlı içeriği tespit etmek ve önlemek için gelişmiş yapay zeka sistemleri ve manuel inceleme süreçleri kullanmak.
- Şikayet ve Müdahale Mekanizmaları: Kullanıcıların şüpheli veya yasa dışı faaliyetleri hızlı bir şekilde bildirmelerini sağlamak, gelen şikayetleri titizlikle incelemek ve gerekli yasal merciler ile iş birliği yapmak.
- Topluluk Bilinci ve Eğitimi: Kullanıcıları çocuk güvenliği konusunda bilinçlendirmek, güvenli internet kullanımı hakkında eğitim sağlamak ve çocuk istismarına karşı farkındalık yaratmak.
- Yasal Uyumluluk: Çocuk haklarını ve güvenliğini korumaya yönelik ulusal ve uluslararası yasalarla tam uyumluluk sağlamak, yetkili makamlarla iş birliği yapmak ve gerektiğinde hukuki yaptırımları uygulamak.
Bu doğrultuda, çocuk güvenliğini ihlal eden herhangi bir davranışa sıfır tolerans politikası uyguluyor ve platformumuzu güvenli bir ortam haline getirmek için sürekli iyileştirmeler yapıyoruz.
Tanımlar
Bu politika kapsamında kullanılan terimler, çocukların korunmasına yönelik en yüksek güvenlik standartlarını sağlamak amacıyla aşağıdaki şekilde tanımlanmıştır:
- Çocuk
Birleşmiş Milletler Çocuk Haklarına Dair Sözleşme’ye göre 18 yaşın altındaki her birey “çocuk” olarak kabul edilir.
- Reşit Olmayan Kullanıcı
Arkadaslik/Flört uygulamasına kayıt olmaya çalışan veya herhangi bir şekilde platformla etkileşime giren 18 yaş altı bireyleri ifade eder.
- Yetişkin Kullanıcı
Uygulamayı kullanma hakkına sahip olan ve yaş doğrulama süreçlerinden geçmiş, en az 18 yaşında olan bireyleri ifade eder.
- Çocuk Koruma Filtreleri
Reşit olmayan kullanıcıların platforma erişimini engellemek için geliştirilen, yapay zeka destekli analiz, anahtar kelime taraması ve manuel inceleme gibi güvenlik önlemlerini içeren sistemleri ifade eder.
- Yasaklı İçerik
18 yaş altındaki bireyleri hedef alan, çocukların güvenliğini riske atan veya çocuk istismarı, çocuk kaçakçılığı ve çocuklara yönelik zararlı içerik barındıran her türlü metin, görsel, video veya bağlantıyı kapsayan içeriklerdir.
- İhbar ve Raporlama Mekanizması
Kullanıcıların veya moderatörlerin, reşit olmayan kullanıcıların platformda tespit edilmesi veya çocuk güvenliğini tehdit eden herhangi bir içerikle karşılaşmaları durumunda kullanabilecekleri bildirim sistemidir.
- Yasal Uyum Mekanizması
Ulusal ve uluslararası çocuk koruma yasalarına, GDPR, COPPA (Çocukların Çevrimiçi Gizliliğini Koruma Yasası) ve benzeri düzenlemelere uyum sağlamak için yürütülen süreçlerdir.
- İçerik Moderasyonu
Platformda yayımlanan içeriklerin, çocuk güvenliği politikalarıyla uyumlu olup olmadığını kontrol etmek amacıyla gerçekleştirilen otomatik ve manuel inceleme süreçlerini ifade eder.
Bu tanımlar, platformumuzun çocuk güvenliği politikasının temelini oluşturur ve tüm kullanıcılarımız için güvenli bir ortam sağlamak adına uygulanır.
A.Çocukları Koruma Önlemleri
- Yaş Doğrulama ve Erişim Kısıtlamaları
- Platformumuz yalnızca 18 yaş ve üzeri bireyler içindir.
- Kullanıcı kaydı sırasında doğum tarihi beyanı zorunludur.
- Doğum tarihi giris/input alanı sadece 18 yaş ve üzeri kullanıcılar için tasarlanmıstır.
- Yapay zeka desteği ile cocuk veya çocuk içerikli fotoğrafların tespit edilip, onay verilmemesi.
- Şüpheli Fotoğrafları Tespit ve Engelleme
- Otomatik moderasyon sistemleri reşit olmayan bireylerin platforma girmeye çalışmasını tespit etmek için 7/24 sürekli olarak güncelleni
- Yaşı hakkında çelişkili bilgiler veren veya çocuk olduğu şüphesi uyandıran hesaplar için manuel inceleme ve doğrulama süreçleri uygulanır.
- Şüpheli görülen hesaplar askıya alınarak kullanıcıdan ek doğrulama belgeleri
- Topluluk Kuralları ve Raporlama Mekanizmaları
- Platformumuzda çocuk istismarı, reşit olmayan bireylerle iletişim kurma girişimleri ve diğer yasa dışı davranışlar kesinlikle yasaktır.
- Kullanıcılar, şüpheli veya uygunsuz hesapları gizlilik içinde bildirebilir.
- 24/7 aktif destek ekibimiz, ihlalleri inceleyerek hızlı aksiyon alır.
- Otomatik filtreleme sistemleri, çocuk istismarı içeren veya reşit olmayan bireyleri hedefleyen içerikleri belirleyerek sisteme yüklenmesini engeller.
- Hukuki İşbirliği ve Bildirim Yükümlülüğü
- Reşit olmayan bireylerin güvenliğini sağlamak adına yasal mercilerle işbirliği yapılır.
- Çocuk istismarı veya yasa dışı aktiviteler tespit edildiğinde ilgili makamlarla derhal paylaşılır.
- Yetkililerden gelen bilgi taleplerine, yürürlükteki yasa ve yönetmeliklere uygun şekilde yanıt verilir.
- Zararlı İçeriklerin Önlenmesi
Zararlı İçeriklerin Tanımı ve Sınıflandırılması
- Aşağıdaki içerikler, zararlı içerik olarak kabul edilir ve platformda kesinlikle yasaktır:
- Çocuk istismarı veya sömürüye yönelik her türlü içerik.
- Çocuk pornografisi veya bu tür içeriklere atıfta bulunan materyaller.
- Çocukları hedef alan taciz, kışkırtma veya tehdit içeren mesajlar.
- Çocukları manipüle etmek veya onları tehlikeli durumlara sürüklemek amacıyla tasarlanmış profiller veya sohbetler.
- Şiddet, nefret söylemi veya cinsel içerik gibi çocuklar için uygun olmayan materyaller.
- İçerik Denetleme ve Filtreleme Mekanizmaları
- Platform, yapay zeka (AI) destekli otomatik filtreleme sistemleri kullanarak zararlı içerikleri tespit eder ve engeller.
- Kullanıcılar tarafından yüklenen fotoğraflar, videolar ve metinler, insan moderatörler ve AI teknolojileri tarafından incelenir.
- Çocukların resimlerini veya kişisel bilgilerini içeren içerikler anında kaldırılır ve sisteme yüklenmesine izin verilmez.
- Kullanıcı Bildirim ve Şikayet Sistemi
- Kullanıcılar, platformda karşılaştıkları zararlı içerikleri kolayca bildirebilecek bir şikayet sistemi aracılığıyla müdahale edebilir.
- Şikayetler, 24 saat içinde incelenir ve gerekli önlemler alınır.
- Şikayet edilen içerikler, inceleme sürecinde geçici olarak engellenir.
- Sürekli İzleme ve İyileştirme
- Platform, çocuk güvenliği politikalarının etkinliğini sürekli olarak değerlendirir ve gerektiğinde güncelleme yapar.
- Kullanıcı geri bildirimleri ve yeni tehdit türleri dikkate alınarak güvenlik önlemleri güçlendirilir.
- Düzenli denetimler ve üçüncü taraf auditleri ile platformun uyumluluğu kontrol edilir.
C . Şikayet ve Müdahale Mekanizmaları:
- Şikayet Bildirim Kanalları
- Kolay Erişimli Şikayet Butonu: Platformun belirli sayfalarında, kullanıcıların kolayca erişebileceği bir "Şikayet Et" butonu vardır. Bu buton, şüpheli aktiviteler veya içeriklerle karşılaşıldığında anında bildirim yapılmasını sağlar.
- 7/24 Aktif Destek Hattı: Kullanıcılar, şüpheli durumlarla ilgili olarak 7 gün 24 saat boyunca, e-posta aracılığıyla yardım alabilirler.
- Anonim Şikayet Seçeneği: Kullanıcılar, kimliklerini gizleyerek de şikayetlerini iletebilirler. Bu, özellikle hassas konularla ilgili endişelerini dile getirmek isteyen kişiler için ö
- Şikayet Değerlendirme Süreci
- 2. İnsan Müdahalesi: Otomatik sistemler tarafından işaretlenen şikayetler, platformun eğitilmiş moderatör ekibi tarafından manuel olarak incelenir.
- 4. Şikayet Takip Sistemi: Kullanıcılar, sürecin hangi aşamada olduğunu sorma ve öğrenme hakkına sahiptir ve bu konuda bize bu email bilgi@takilbana.com adresinden ulaşabilirler.
- Müdahale ve Önleme Mekanizmaları
- 1. Hesap Askıya Alma: Şikayet üzerine, şüpheli faaliyetlerde bulunan hesaplar geçici olarak askıya alınır. İnceleme sonucunda, hesabın kalıcı olarak kapatılması veya yeniden açılması kararı verilir.
- 2. İçerik Kaldırma: Çocuk güvenliğini tehdit eden her türlü içerik (mesajlar, fotoğraflar, videolar) anında kaldırılır ve yasal işlem gerektiği takdirde arşivlenir.
- 3. Yasaklı Kullanıcı Listesi: Çocuk güvenliği politikasını ihlal eden kullanıcılar, platformda kalıcı olarak yasaklanır ve tekrar kayıt olmaları engellenir.
- Ebeveyn ve Toplum İçin Bilinçlendirme Çalışmaları
- Çevrimiçi güvenlik konusunda ebeveynler ve gençler için rehberler sunulur.
- Kullanıcıları, çocuk güvenliği konusunda bilgilendirmek amacıyla düzenli farkındalık kampanyaları yürütülür.
- Çevrimiçi ortamda çocuk güvenliğini artırmak için STK'lar ve güvenlik kuruluşlarıyla ortak çalışmalar yapılır.
- Herhangi bir şüpheli durum bildirilmesi için e-posta adresi ([email protected]) sunulmaktadır.
- Kullanıcılar, şüpheli veya zararlı gördükleri profilleri anında “Şikayet Et” buton’una basarak bildirebilir.
- Ebeveynler, çocuklarının platforma erişim sağladığını düşünüyorsa Takıl Bana ekibi ile iletişime geçerek gerekli önlemlerin alınmasını talep edebilir.
- Yasal Uyumluluk
- 1. Yasal Uyarılar: Çocuk güvenliği politikasını ihlal eden kullanıcılar hakkında, platform yasal işlem başlatma hakkını saklı tutar.
- 2. Sorumluluk Reddi: Platform, yasal çerçevede mümkün olan en üst düzeyde önlem almasına rağmen, üçüncü tarafların eylemlerinden kaynaklanan zararlardan sorumlu değildir. Ancak, bu tür durumlarda kullanıcıları bilgilendirme ve destek sağlama yükümlülüğünü üstlenir.
Politikanın Güncellenmesi ve Denetlenmesi
Bu politika, düzenli olarak gözden geçirilerek güncellenir ve denetlenir. Kullanıcılar, politikada yapılan değişikliklerden haberdar edilerek yeni kurallara uyum sağlamaları beklenir.
📌 Son Güncelleme: 01/02/2025
📌 İletişim: [email protected]