Sora: OpenAI și provocările videoclipurilor generate AI

OpenAI a lansat Sora, o aplicaţie mobilă care creează videoclipuri scurte generate de inteligenţă artificială. Funcţionalitatea permite generarea de clipuri de 10 secunde şi „cameos” cu propria înfăţişare sau cu persoane care îşi permit folosirea imaginii. Reacţiile publice sunt mixte, între fascinaţie şi îngrijorare, iar dezbaterea privind manipularea vizuală şi răspândirea dezinformării a devenit imediat intensă.

Interfață Sora OpenAI generare videoclip AI pe smartphone

Cum funcţionează Sora şi ce oferă utilizatorilor

Sora permite crearea rapidă a clipurilor video pe baza instrucţiunilor text sau a unei înregistrări scurte cu faţa utilizatorului. Procesul de personalizare include înregistrarea mişcărilor capului şi a unor fraze pentru a genera un model digital al feţei. Aplicaţia oferă opţiunea de a crea cameos, adică videoclipuri în care apare o copie generată a unei persoane, dacă aceasta şi-a dat acordul. OpenAI susţine că fiecare clip poartă semnale care indică originea AI, precum metadata şi un watermark dinamic pe descărcări.

Interfaţa este gândită pentru conţinut scurt, uşor distribuit pe reţele. Popularitatea iniţială vine din posibilitatea de a transforma rapid persoane în personaje comice sau parodii. Totuşi, multe clipuri sunt deja folosite ca exemple de deepfake sau potenţial dezinformare. În practică, unele mecanisme de siguranţă funcţionează bine. Altele pot fi ocolite prin metode externe, cum ar fi înregistrarea ecranului în browser.

Pe plan tehnic, Sora combină modele de sinteză video cu filtre de moderare automate. Aceste filtre detectează termeni sensibili şi interzic anumite prompturi, în special cele care pot genera conţinut sexualizat sau care imită persoane publice fără drept. De asemenea, setările permit utilizatorilor să decidă cine poate crea videoclipuri cu înfăţişarea lor: doar ei, persoane aprobate, mutuali sau toţi utilizatorii. Aceste opţiuni urmăresc să reducă abuzurile, dar nu elimină complet riscul.

Reacţii, controverse şi limite impuse de OpenAI

Angajaţi ai OpenAI au exprimat opinii divergente privind lansarea. Unii apreciază progresele tehnologice şi eforturile de securitate. Alţii avertizează că produsul a fost lansat înainte ca toate riscurile să fie clar gestionate. Criticile includ temeri legate de încălcarea drepturilor de autor şi circulaţia rapidă a materialelor manipulate.

Un alt punct de dezbatere este vizibilitatea watermark-ului. În unele scenarii, watermark-ul apare mic sau poate fi eliminat prin înregistrări externe. Aceasta creşte posibilitatea ca un clip deepfake să circule fără etichetare clară. De asemenea, politicile privind contul sunt restrictive: ştergerea unui cont Sora poate impune ştergerea contului ChatGPT asociat, situaţie aflată în curs de remediere conform declaraţiilor oficiale.

Din perspectiva utilizatorului, experienţa variază. Unii utilizează aplicaţia pentru glume şi conţinut creativ. Alţii sunt îngrijoraţi de impactul social şi de autentificarea informaţiei. Pe termen lung, controlul accesului la folosirea înfăţişărilor şi îmbunătăţirea detectării semnalelor AI vor fi esenţiale pentru acceptare largă.

„Producţia video generată de AI modifică permanent linia dintre real şi fals.”
  • Capacitatea de a crea cameos ridică probleme de consimţământ.
  • Watermark-urile şi metadata ajută la identificare, dar pot fi ocolite.
  • Moderarea automată limitează anumite prompturi, dar nu e infailibilă.

Concluzie

Sora pune în faţă atât potenţialul creativ, cât şi riscurile unei platforme bazate pe video generat de tehnologie. Aplicaţia este uşor de folosit şi poate genera conţinut virale în câteva secunde. Totuşi, preocupările privind deepfake-urile, drepturile de autor şi protecţia datelor rămân târâtoare. Măsurile iniţiale de siguranţă există, dar ele trebuie consolidate continuu. Monitorizarea atentă, transparenţa şi reglementările adecvate vor decide dacă astfel de aplicaţii pot fi integrate responsabil în peisajul media.

Sursa: theverge.com

Mai nouă Mai veche