Directoratul Naţional de Securitate Cibernetică (DNSC) a lansat „Ghidul privind identificarea materialelor de tip Deepfake”,
Postat pe 10 Apr 2024
Update cu 6 luni în urmă
Timp de citire: 10 minute
Articol scris de: Maria Simionescu
Directoratul Național de Securitate Cibernetică (DNSC) a lansat (la 1 aprilie, nici mai mult, nici mai puțin) Ghidul privind identificarea materialelor de tip Deepfake (fals profund). Acest ghid reprezintă un instrument esențial pentru înțelegerea și abordarea provocărilor asociate cu fenomenul Deepfake , având ca obiectiv principal protejarea și educarea publicului cu privire la conștientizarea riscurilor de securitate cibernetică. Conform definiției oferite de DNSC, ”Deepfake este o manipulare digitală a unei înregistrări video, audio sau a unei imagini, realizată cu ajutorul inteligenței artificiale (IA) sau a altor programe specializate”. Unul dintre exemplele oferite : un videoclip cu o personalitate publică oferă sfaturi financiare. În acest videoclip, persoana recomandă insistent investiția într-o anumită companie sau afacere, promițând profituri mari și riscuri minime. Exemplu real: o schemă de înșelăciune semnalată publicului de Banca Națională a României (BNR) implica videoclipuri false cu guvernatorul BNR, Mugur Isărescu, create prin tehnologia Deepfake. În aceste videoclipuri, guvernatorul pare să promoveze o platformă de investiții, dar BNR a declarat că acestea sunt false. Tehnologia creată prin IA, a permis modificarea vocii și a imaginii guvernatorului, cu scopul de a induce în eroare publicul pentru a participa la investiții frauduloase, promițând câștiguri financiare rapide și ușoare. Pericolul Deepfake în contextul electoral DNSC semnalează pericolul unui peisaj electoral modificat, în care ”granița dintre realitate și ficțiune se estompează în mod constant”, iar procesul electoral depășește simpla confruntare a ideologiilor și promisiunilor politice, transformându-se într-un teren complex de luptă ideologică. Tehnologiile Deepfake, capabile a sintetiza realist imagini și voci , ”pot influența semnificativ opinia și votul alegătorilor în timpul campaniilor electorale, având un impact major asupra procesului democratic, din următoarele considerente: – Impactul asupra politicienilor: Reputația unui politician poate fi grav afectată de videoclipuri Deepfake fabricate, care pot discredita imaginea sa și pot deteriora șansele de a câștiga alegerile. Răspândirea dezinformării prin Deepfake poate manipula percepția publică asupra caracterului și programului politicianului, afectând negativ cariera sa politică. – Impactul asupra partidelor politice: Deepfake poate fi utilizat ca instrument strategic pentru a discredita partidele rivale, prin crearea de materiale false care să le prezinte într-o postură negativă. Promovarea agendei propriului partid prin Deepfake poate fi o modalitate eficientă de a influența opinia publică și de a atrage alegători. Utilizarea necorespunzătoare a Deepfake de către partidele politice poate duce la scandaluri și la pierderea încrederii publicului în sistemul politic. – Impactul grupurilor de interese: Deepfake poate fi utilizat de grupuri de interese din interiorul unei țări pentru a manipula opinia publică legată de probleme civice. Crearea de conținut falsificat adaptat la contextele locale poate intensifica sau calma nemulțumirile legate de anumite probleme sau evenimente. Utilizarea Deepfake de către grupurile de interese poate duce la polarizarea societății și la o erodare a discursului public democratic”. Semne de identificare a unui Deepfake ”Protejarea împotriva Deepfake-urilor este o provocare continuă, deoarece tehnologia se perfecționează constant, făcând conținutul manipulat tot mai greu de distins de cel real. Indicii care pot trăda un Deepfake, iată la ce anume trebuie să fim atenți: • Mediul înconjurător (de exemplu, umbre inexistente, reflexii prea puternice, zone neclare); • Imperfecțiuni ale feței (alunițe nerealiste, clipire nesincronizată, distorsiuni în interiorul gurii cum ar fi lipsa dinților și a limbii, dinți mult prea perfecți etc.); • Nesincronizarea vorbirii/sunetului și a mișcării buzelor, de exemplu: din cauza strănutului. Nesincronizarea vorbirii/sunetului și a mișcării buzelor poate fi observată la pronunțarea literelor b, m și p.” etc. Sfaturi pentru a evita să fii păcălit de Deepfake-uri ”Evitarea înșelăciunii prin Deepfake necesită o combinație de scepticism sănătos, atenție la detalii și utilizarea unor instrumente de verificare. Iată câteva sfaturi utile: • Nu crede tot ce vezi online! Internetul este o sursă vastă de informații, dar nu toate sunt veridice. Este important să dezvolți un scepticism sănătos și să analizezi cu atenție orice conținut video sau foto înainte de a-l accepta ca fiind real. • Caută semne de manipulare: Deepfake-urile pot fi foarte sofisticate, dar adesea pot fi identificate prin anumite indicii. Fii atent la discrepanțe de iluminare, erori de aliniere, nereguli ale pielii sau probleme de sincronizare a buzelor cu sunetul. • Verifică sursa: De unde provine videoclipul sau imaginea? Este distribuit pe o platformă de încredere? Caută confirmarea informației din surse credibile sau direct de la entitățile sau persoanele implicate. • Folosește instrumente de verificare: Există numeroase organizații și instrumente online care te pot ajuta să verifici dacă o informație este reală. Utilizează-le pentru a cerceta autenticitatea conținutului suspect. • Nu te baza pe o singură sursă: Caută confirmare din mai multe surse credibile. Un singur videoclip sau imagine nu este suficient pentru a verifica o informație. • Învață despre Deepfake-uri: Cu cât înțelegi mai bine cum funcționează această tehnologie, cu atât vei fi mai capabil să identifici falsurile. Există multe resurse online care explică principiile Deepfake-urilor și metodele de detectare”. Tehnologii care evoluează extrem de rapid Deja, de la sfârșitul anului 2022, este în dezvoltare Voice Engine care poate produce voci sintetice care citesc mesaje text în limba vorbitorului sau în alte limbi. Accesul inițial este acordat unor companii selectate, inclusiv Age of Learning și HeyGen, prezentând potențialul modelului în contexte educaționale și de povestire. OpenAI subliniază importanța utilizării etice, solicitând companiilor partenere să obțină consimțământul pentru clonarea vocii și să informeze utilizatorii cu privire la utilizarea vocilor generate de AI (deși acest lucru nu va descuraja persoanele rău intenționate). Pe fondul preocupărilor tot mai mari cu privire la utilizarea abuzivă a vocii AI, OpenAI implementează măsuri precum filigranul audio și monitorizarea pentru a asigura o implementare responsabilă. De ce ar trebui să ne pese: motorul de voce OpenAI reprezintă un progres semnificativ în tehnologia clonării vocii, evidențiind potențialul aplicațiilor inovatoare și abordând provocările etice și de securitate. *** De notat că Deepfake ar putea egala și chiar întrece efortul personal al unora dintre politicienii noștri, perfect apți în manipula ei înșiși situații și realități. Va fi interesant de văzut ce rezultate va da competiția aceasta pentru publicul privitor la spectacol.
Pe 7 decembrie 2024, Parchetul de pe lângă Înalta Curte de Casație și Inspectoratul General al Poliției Române au inițiat o acțiune comună ce vizează sancționarea comportamentelor ilegale întâlnite pe platformele de socializare. Aceste comportamente constau în incitarea la violență, ură și recrutarea publicului pentru a comite infracțiuni, în special în contextul procesului electoral din România.
Acțiunea se concentrează pe nouă percheziții efectuate în cadrul a șapte dosare penale, care includ
.
Astăzi, 15 noiembrie 2024, la ora 17:00, doamna Dr. Ildiko Bartok, medic primar în obstetrică-ginecologie din Cluj, va susține o sesiune de întrebări și răspunsuri (Q&A) la Sala Cupola a Bibliotecii Județene „G. T. Kirileanu” din Piatra-Neamț. Evenimentul are ca temă aspectele asociate tuturor etapelor menopauzei și face parte dintr-o campanie națională de conștientizare și informare desfășurată de doamna doctor.
Scopul acestei inițiative este de a oferi un spațiu sigur pentru
.
Un incident tragic a avut loc pe 11 noiembrie, în jurul orei 02:00, când un bărbat în vârstă de 56 de ani, internat la Spitalul Județean de Urgență (SJU) Piatra Neamț, și-a pierdut viața după ce s-a aruncat de la etajul doi al spitalului. Poliția din Piatra Neamț a fost alertată imediat după eveniment și, conform primele informații, se pare că acesta a fost un act de suicid.
Managerul spitalului, dr.
.
Pe 21 octombrie 2024, echipele Salvamont Neamț au desfășurat o intervenție de salvare complexă în zona Munților Tarcău, după ce au fost alertate printr-un apel la numărul de urgență 112 despre un grav accident de muncă, înregistrat într-o zonă forestieră greu accesibilă.
Victima, aflată într-o regiune izolată și fără acces la comunicații, a suferit un traumatism sever toraco-abdominal și o fractură de bazin, prezentând o stare critică și instabilă din punct
.
AiPath Media este o sursă de știri de încredere, oferind informații de calitate pentru toate
judetele din Romania. Cu o echipă dedicată de jurnaliști experimentați, ne angajăm să aducem cititorilor
noștri o perspectivă cuprinzătoare asupra evenimentelor la nivel local și național.