Raport: majoritatea funcțiilor Instagram pentru adolescenți eșuează

Un raport recent realizat de organizaţii de advocacy şi cercetători universitari ridică semne de întrebare privind eficienţa funcţiilor de protecţie implementate de Instagram pentru tineri. Studiul concluzionează că multe controale promise fie nu operează conform anunţurilor, fie lipsesc. Meta respinge concluziile şi consideră evaluarea înşelătoare. Dezbaterea reaprinde discuţiile despre responsabilitatea platformelor faţă de siguranța adolescenților.

Raport despre funcțiile de siguranță Instagram și reacția Meta

Evaluarea funcţiilor de protecţie pentru conturile adolescenţilor

Analiza a identificat 47 de funcţii de protecţie revendicate de companie pe parcursul ultimului deceniu. Din acestea, cercetătorii au considerat că doar opt funcţionează complet. Restul au fost catalogate ca având probleme de implementare, fiind greu de activat sau lipsind. Testele practice au arătat că filtrele menite să blocheze conţinutul legat de autovătămare pot fi ocolite prin expresii alternative. De asemenea, filtrele anti-bullying s-au declanşat rar, chiar şi atunci când au fost folosite aceleaşi fraze folosite în comunicările oficiale ale platformei. Studiul a inclus verificări metodice, folosind scenarii realiste pentru a imita comportamentul adolescenţilor. Rezultatele sugerează discrepanţe între ceea ce Meta declară şi experienţa utilizatorilor tineri. Mai mult, unele instrumente pentru conturile de adolescenţi, precum "modul silenţios" pentru notificări nocturne sau aprobările parentale pentru modificările contului, au funcţionat conform aşteptărilor. Raportul subliniază faptul că eficienţa funcţiilor depinde şi de actualizările succesive şi de monitorizarea continuă. Organizaţiile care au iniţiat studiul au verificat fiecare funcţie anunţată public şi au notat schimbările de-a lungul anilor. Această abordare a permis identificarea unor funcţii anunţate în trecut, dar ulterior eliminate sau nefuncţionale. Concluziile nu atacă doar tehnologia, ci şi procesele interne de testare şi documentare. În lipsa unei transparenţe mai mari, utilizatorii şi autorităţile rămân fără o imagine clară asupra protecţiilor reale oferite minorilor. Raportul recomandă audituri independente periodice şi colaborare mai strânsă cu experţi în siguranţa copiilor pentru a corecta aceste lacune.

Reacţia Meta şi contextul regulator

Reprezentanţii Meta au declarat că analiza este înşelătoare şi că metodologia nu reflectă modul în care milioane de utilizatori folosesc instrumentele. Compania susţine că protecţiile pentru adolescenţi au redus expunerea la conţinut sensibil şi contactele nedorite. Totuşi, organizaţiile de advocacy au precizat că au folosit teste reproducibile şi scenarii realiste pentru a evalua fiecare funcţie. Raportul a fost realizat cu sprijin academic, iar observaţiile au fost revizuite de cercetători universitari. Două dintre grupurile implicate în iniţiativă au fost fondate de părinţi afectaţi de tragedii legate de hărţuire şi autovătămare online. În plus, fostul director de siguranţă de la companie a oferit consultanţă, indicând probleme interne de răspuns la datele semnalizate. Contextul vine într-un moment de creştere a presiunii regulatorii asupra platformelor digitale. Autorităţile şi organizaţiile pentru protecţia copilului solicită instrumente mai transparente şi proceduri de verificare independente. Opinia experţilor este că soluţiile tehnice trebuie însoţite de politici clare şi de implicarea familiei în utilizarea sigură a platformelor.

„Testele realiste arată că multe instrumente de protecţie de pe Instagram nu îşi ating scopul.”
  • Majoritatea funcţiilor promise nu sunt complet operaţionale.
  • Câteva controale esenţiale au fost ocolite cu uşurinţă în teste.
  • Meta respinge constatările şi consideră metodologia eronată.

Concluzii şi implicaţii pentru protecţia minorilor online

Raportul evidenţiază o discrepanţă între comunicările publice ale platformei şi starea reală a funcţiilor de securitate. În practică, majoritatea instrumentelor verificate nu au oferit acelaşi nivel de protecţie anunţat. Aceasta creşte necesitatea unor audituri independente şi a standardelor comune de evaluare. Autorii recomandă teste periodice, colaborare cu experţi în sănătate mintală şi reguli mai clare pentru controlul conţinutului sensibil. Părinţii şi educatorii trebuie informaţi despre limitările actuale. În acelaşi timp, companiile tehnologice trebuie să furnizeze date transparente despre eficienţa instrumentelor. Doar prin verificare externă şi dialog constructiv se pot reduce riscurile pentru tineri. Monitorizarea continuă şi adaptarea rapidă a funcţiilor rămân esenţiale pentru a creşte încrederea publicului în platforme.

Sursa: hotnews.ro

Mai nouă Mai veche