Directoratul Național de Securitate Cibernetică (DNSC) a lansat (la 1 aprilie, nici mai mult, nici mai puțin) Ghidul privind identificarea materialelor de tip Deepfake (fals profund). Acest ghid reprezintă un instrument esențial pentru înțelegerea și abordarea provocărilor asociate cu fenomenul Deepfake , având ca obiectiv principal protejarea și educarea publicului cu privire la conștientizarea riscurilor de securitate cibernetică. Conform definiției oferite de DNSC, ”Deepfake este o manipulare digitală a unei înregistrări video, audio sau a unei imagini, realizată cu ajutorul inteligenței artificiale (IA) sau a altor programe specializate”. Unul dintre exemplele oferite : un videoclip cu o personalitate publică oferă sfaturi financiare. În acest videoclip, persoana recomandă insistent investiția într-o anumită companie sau afacere, promițând profituri mari și riscuri minime. Exemplu real: o schemă de înșelăciune semnalată publicului de Banca Națională a României (BNR) implica videoclipuri false cu guvernatorul BNR, Mugur Isărescu, create prin tehnologia Deepfake. În aceste videoclipuri, guvernatorul pare să promoveze o platformă de investiții, dar BNR a declarat că acestea sunt false. Tehnologia creată prin IA, a permis modificarea vocii și a imaginii guvernatorului, cu scopul de a induce în eroare publicul pentru a participa la investiții frauduloase, promițând câștiguri financiare rapide și ușoare. Pericolul Deepfake în contextul electoral DNSC semnalează pericolul unui peisaj electoral modificat, în care ”granița dintre realitate și ficțiune se estompează în mod constant”, iar procesul electoral depășește simpla confruntare a ideologiilor și promisiunilor politice, transformându-se într-un teren complex de luptă ideologică. Tehnologiile Deepfake, capabile a sintetiza realist imagini și voci , ”pot influența semnificativ opinia și votul alegătorilor în timpul campaniilor electorale, având un impact major asupra procesului democratic, din următoarele considerente: – Impactul asupra politicienilor: Reputația unui politician poate fi grav afectată de videoclipuri Deepfake fabricate, care pot discredita imaginea sa și pot deteriora șansele de a câștiga alegerile. Răspândirea dezinformării prin Deepfake poate manipula percepția publică asupra caracterului și programului politicianului, afectând negativ cariera sa politică. – Impactul asupra partidelor politice: Deepfake poate fi utilizat ca instrument strategic pentru a discredita partidele rivale, prin crearea de materiale false care să le prezinte într-o postură negativă. Promovarea agendei propriului partid prin Deepfake poate fi o modalitate eficientă de a influența opinia publică și de a atrage alegători. Utilizarea necorespunzătoare a Deepfake de către partidele politice poate duce la scandaluri și la pierderea încrederii publicului în sistemul politic. – Impactul grupurilor de interese: Deepfake poate fi utilizat de grupuri de interese din interiorul unei țări pentru a manipula opinia publică legată de probleme civice. Crearea de conținut falsificat adaptat la contextele locale poate intensifica sau calma nemulțumirile legate de anumite probleme sau evenimente. Utilizarea Deepfake de către grupurile de interese poate duce la polarizarea societății și la o erodare a discursului public democratic”. Semne de identificare a unui Deepfake ”Protejarea împotriva Deepfake-urilor este o provocare continuă, deoarece tehnologia se perfecționează constant, făcând conținutul manipulat tot mai greu de distins de cel real. Indicii care pot trăda un Deepfake, iată la ce anume trebuie să fim atenți: • Mediul înconjurător (de exemplu, umbre inexistente, reflexii prea puternice, zone neclare); • Imperfecțiuni ale feței (alunițe nerealiste, clipire nesincronizată, distorsiuni în interiorul gurii cum ar fi lipsa dinților și a limbii, dinți mult prea perfecți etc.); • Nesincronizarea vorbirii/sunetului și a mișcării buzelor, de exemplu: din cauza strănutului. Nesincronizarea vorbirii/sunetului și a mișcării buzelor poate fi observată la pronunțarea literelor b, m și p.” etc. Sfaturi pentru a evita să fii păcălit de Deepfake-uri ”Evitarea înșelăciunii prin Deepfake necesită o combinație de scepticism sănătos, atenție la detalii și utilizarea unor instrumente de verificare. Iată câteva sfaturi utile: • Nu crede tot ce vezi online! Internetul este o sursă vastă de informații, dar nu toate sunt veridice. Este important să dezvolți un scepticism sănătos și să analizezi cu atenție orice conținut video sau foto înainte de a-l accepta ca fiind real. • Caută semne de manipulare: Deepfake-urile pot fi foarte sofisticate, dar adesea pot fi identificate prin anumite indicii. Fii atent la discrepanțe de iluminare, erori de aliniere, nereguli ale pielii sau probleme de sincronizare a buzelor cu sunetul. • Verifică sursa: De unde provine videoclipul sau imaginea? Este distribuit pe o platformă de încredere? Caută confirmarea informației din surse credibile sau direct de la entitățile sau persoanele implicate. • Folosește instrumente de verificare: Există numeroase organizații și instrumente online care te pot ajuta să verifici dacă o informație este reală. Utilizează-le pentru a cerceta autenticitatea conținutului suspect. • Nu te baza pe o singură sursă: Caută confirmare din mai multe surse credibile. Un singur videoclip sau imagine nu este suficient pentru a verifica o informație. • Învață despre Deepfake-uri: Cu cât înțelegi mai bine cum funcționează această tehnologie, cu atât vei fi mai capabil să identifici falsurile. Există multe resurse online care explică principiile Deepfake-urilor și metodele de detectare”. Tehnologii care evoluează extrem de rapid Deja, de la sfârșitul anului 2022, este în dezvoltare Voice Engine care poate produce voci sintetice care citesc mesaje text în limba vorbitorului sau în alte limbi. Accesul inițial este acordat unor companii selectate, inclusiv Age of Learning și HeyGen, prezentând potențialul modelului în contexte educaționale și de povestire. OpenAI subliniază importanța utilizării etice, solicitând companiilor partenere să obțină consimțământul pentru clonarea vocii și să informeze utilizatorii cu privire la utilizarea vocilor generate de AI (deși acest lucru nu va descuraja persoanele rău intenționate). Pe fondul preocupărilor tot mai mari cu privire la utilizarea abuzivă a vocii AI, OpenAI implementează măsuri precum filigranul audio și monitorizarea pentru a asigura o implementare responsabilă. De ce ar trebui să ne pese: motorul de voce OpenAI reprezintă un progres semnificativ în tehnologia clonării vocii, evidențiind potențialul aplicațiilor inovatoare și abordând provocările etice și de securitate. *** De notat că Deepfake ar putea egala și chiar întrece efortul personal al unora dintre politicienii noștri, perfect apți în manipula ei înșiși situații și realități. Va fi interesant de văzut ce rezultate va da competiția aceasta pentru publicul privitor la spectacol.
Primarul comunei Tarcău, Manole Danut Firtala, se află într-o situație dificilă, deoarece ar putea pierde funcția obținută la alegerile locale din 2024. Conform monitorulneamt.ro, edilul nu a exercitat mandatul nici măcar o zi din momentul arestării sale anul trecut, fiind inculpat pentru corupție.
Pe data de 6 mai 2025, Tribunalul Neamț a decis să prelungească controlul judiciar pentru o perioadă de 60 de zile. Prin urmare, Firtala nu poate reveni în
.
Pe 4 mai 2025, cetățenii români din întreaga țară și din diaspora au participat la alegerile pentru un nou președinte. Conform rezultatelor prezentate de monitorulneamt.ro, candidatul Alianței pentru Unitatea Românilor, George Simion, a fost declarat câștigător al primelor estimări.
Exit-poll-urile realizate pe parcursul zilei de votare, dar și imediat după încheierea acestuia, la ora 21.00, l-au plasat pe Simion în frunte, cu un procent de 41,4%. În competiția pentru locul doi,
.
Centrul de Comunicare Neamț a raportat că, până la ora 15.00, pe 4 mai 2025, nu au existat incidente semnificative în legătură cu procesul electoral. Potrivit monitorulneamt.ro, cele mai multe plângeri primite până în acel moment au vizat vânzarea de băuturi alcoolice în apropierea secțiilor de votare.
Un incident a fost semnalat în Roman, unde un bărbat în vârstă de 36 de ani, aflat sub influența alcoolului, a sunat la 112
.
Administrația Națională de Meteorologie a emis o atenționare de tip Cod galben pentru fenomene meteorologice periculoase, conform monitorulneamt.ro. Aceasta a fost anunțată astăzi, 4 mai 2025, la ora 14:45, și este valabilă până la ora 16:00.
Se preconizează intensificări ale vântului, dar și averse care vor aduna între 15 și 25 l/mp, împreună cu descărcări electrice. De asemenea, există posibilitatea ca în unele zone să cadă grindină.
În județul Neamț, localitățile vizate
.
AiPath Media este o sursă de știri de încredere, oferind informații de calitate pentru toate
judetele din Romania. Cu o echipă dedicată de jurnaliști experimentați, ne angajăm să aducem cititorilor
noștri o perspectivă cuprinzătoare asupra evenimentelor la nivel local și național.