Software

Apple renunta la ideea de a scana fotografiile utilizatorilor din iCloud pentru a detecta...

Apple renunta la ideea de a scana fotografiile utilizatorilor din iCloud pentru a detecta pornografie infantila

08.12.2022, 11:14 By thumbs

Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store

Legal disclaimer:

Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.

In urma cu un an, Apple anunta ca va implementa tehnologia care detecteaza fotografii cu pornografie infantila de pe telefoanele utilizatorilor, putand astfel depista mai usor pedofilii si alerta autoritatile. Tehnologia de detectie CSAM (child sexual abuse material) este insa una controversata, si, asa cum s-a demonstrat, una pe care nu te poti baza in realitate, dupa cum a povestit un tata din SUA care are contul Google blocat iremediabil dupa ce a trimis fotografii cu afectiunile fiul sau catre medicul pediatru in perioada pandemiei. Apple spune acum ca renunta la aceasta tehnologie.

Mult criticata tehnologie care detecteaza pornografie infantila, nu va fi folosita de Apple
Compania nu a oferit inca un motiv clar pentru care nu va mai implementa CSAM. Compania vorbeste despre consultatii cu specialisti din domeniu, insa, cel mai posibil, este vorba despre riscurile ridicate de greseli care ar putea afecta negativ viata unor oameni nevinovati. Nu numai ca acestia ar avea conturile blocate, iar deblocarea lor ar putea consuma resurse in plus din partea Apple intr-un proces de lunga durata, insa implicarea autoritatilor in acest proces ar putea duce la inscrierea utilizatorilor in registre nationale si internationale de abuzatori, fara sa fi comis de fapt o crima.

"Dupa consultatii extensive cu experti pentru a aduna feedback pentru initiativele de protectie ale minorilor propuse anul trecut, vom aprofunda investitiile in functiile de Siguranta in Comunicare pe care le-am lansat initial in 2021. Am decis sa nu mergem inainte cu unealta de detectie a continutul CSAM pentru fotografiile din iCloud. Copiii pot fi protejati fara verificarea datelor personale din partea companiilor si vom continua sa lucram cu guvernele, reprezentanti ai copiilor si alte companii pentru a proteja tinerii si pentru a le asigura dreptul la confidentialitate, dar si pentru a transforma internetul intr-un loc mai sigur pentru copii si pentru noi toti.", au declarat reprezentantii Apple pentru Wired.

Utilizatorii care au criticat integrarea acestei tehnologii au adus in discutie dreptul la intimitate, Apple urmand a le scana toate fotografiile. Acest lucru ar fi fost impotriva initiativelor de securitate si confidentialitate pe care Apple le lauda constant atunci cand vorbeste de dispozitivele sale.

sursa: Gizmodo

Articolul Apple renunta la ideea de a scana fotografiile utilizatorilor din iCloud pentru a detecta pornografie infantila apare prima data in Go4IT.

Legal disclaimer:

Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.

Articole asemanatoare