17.11.2025, 09:04 Sursa: mediafax.ro
Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store
Videoclipurile deepfake au crescut de la o jumatate de milion in 2023 la peste opt milioane in acest an, tentativele de escrocherie crescand cu 3.000% in doar doi ani, potrivit Express care citeaza firma de securitate cibernetica DeepStrike. Expertii spun ca lumea a intrat intr-o noua era a continutului video online, care este periculos. Videoclipurile generate de inteligenta artificiala se raspandesc rapid pe retelele de socializare, afectand milioane de utilizatori. Un expert in tehnologie a emis un avertisment cu privire la instrumentele video ultra-realiste bazate pe inteligenta artificiala disponibile pe platforme precum Sora 2, care au fost exploatate de escroci pentru a alimenta un val de escrocherii deepfake online Expertul a dezvaluit ca devine din ce in ce mai dificil sa se faca diferenta intre ceea ce este real si ceea ce nu este, deoarece oamenii pot detecta acum deepfake-uri de inalta calitate doar o data din patru, ceea ce inseamna ca milioane de oameni pot fi inselati fara sa-si dea seama. Ceea ce a inceput ca o distractie pe internet, cu deepfake-uri si videoclipuri generate de inteligenta artificiala, s-a transformat rapid intr-o industrie criminala de miliarde de dolari. Escrocii folosesc inteligenta artificiala pentru a clona voci, fete si emotii, furand bani si raspandind stiri false. Apelurile video deepfake in timp real vor deveni si ele mult mai frecvente, mai avertizeaza specialistii. Escrocii se pot prezenta drept persoane dragi sau sefi folosind voci si gesturi clonate. Acest lucru este posibil datorita instrumentelor disponibile pe platforme precum Sora, o aplicatie text-video capabila sa creeze videoclipuri realiste in mai putin de un minut. Cum puteti distinge intre realitate si fals Expertii in tehnologie de la compania de software Outplayed au dezvaluit cateva semne cheie pentru a identifica un videoclip generat de inteligenta artificiala. Acestea includ urmatoarele lucruri: "Clipit si ochi: Subiectii clipesc mai putin sau isi misca ochii in modele robotice. Maini si degete: Atentie la degete deformate sau imbinate - inteligenta artificiala inca se chinuie cu mainile. Erori de iluminare: Umbrele cad in directii ciudate sau fetele par prea luminoase. Apa si reflexii: Lichidul pare "prea perfect" sau nenatural de imobil. Probleme de sincronizare a buzelor: Buzele nu se potrivesc perfect cu cuvintele - in special la sunetele "p" sau "b". Piele neteda: Fetele inteligentei artificiale par plastice, fara pori sau textura. Fundaluri cu erori: Obiectele deformate sau marginile palpaitoare dau de gol. Miscarea tesaturilor: Hainele se misca rigid in vant. Tranzitii de scena: Sarituri sau "sclipiri" stangace la mijlocul cadrului sugereaza editarea. Context ciudat: Persoane care apar in afara personajului sau in locuri ciudate. Presimtire: Daca pare ciudat - probabil ca este." "Odinioara studiourile de la Hollywood aveau nevoie de saptamani pentru a produce ceva ce in prezent poate fi realizat rapid, de oricine are un laptop. Videoclipurile de la cele mai recente instrumente de inteligenta artificiala, cum ar fi Sora 2, sunt aproape imposibil de descoperit si acest lucru este terifiant in cazurile gresite in care ar putea fi utilizat", a spus expertul. Persoanele cad victime ale fraudelor economice si romantice. "Oamenii au incredere in dovezile video. De aceea intram intr-o noua era periculoasa, cu deepfake-uri in crestere rapida. Ele ocolesc logica si merg direct la emotie", a explicat specialistul. Sora a depasit un milion de descarcari, utilizatorii generand clipuri scurte care starnesc frecvent dezbateri. Escrocii au folosit inclusiv imaginea unor vedete precum Jake Paul, Michael Jackson si Martin Luther King Jr..
Legal disclaimer:
Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.