×

Accesează
contul existent

Opinii

Guvernanta in era AI: intre fascinatie, etica si control. Ce ar trebui sa faca boardul unei...

Guvernanta in era AI: intre fascinatie, etica si control. Ce ar trebui sa faca boardul unei companii?

04.07.2025, 09:29 Sursa: zf.ro

Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store

De la inceputul anului trecut, aproape fiecare intalnire de board in care sunt implicat include cel putin o referire la AI. Uneori, aceasta vine sub forma unui entuziasm nedeclarat: "Ne gandim sa introducem un chatbot intern, sa generam propuneri de contracte sau sa scriem briefuri de marketing cu AI." Alteori, sub forma unei nelinisti surde: "Daca AI-ul greseste, cine raspunde? Cum ne asiguram ca nu luam decizii bazate pe date toxice?"

Dorim sa implementam cat mai multe solutii tehnologice care incorporeaza AI, dar in acelasi timp sa nu uitam obligatia de a verifica riguros, din timp, rezultatele si modul de lucru, pentru a nu atrage riscuri asupra companiei.

Sa ne imaginam, de exemplu, o companie de servicii financiare, care implementeaza un flux in care se foloseste inteligenta artificiala pentru scoring comportamental in etapa de pre-aprobare a clientilor. Sa spunem ca este un model invatat din istoricul tranzactiilor si care ofera un rating de risc "intern". Boardul ar fi complet fascinat de eficienta: in loc de trei analize umane, algoritmul ar livra rezultatul in 15 secunde. Dar cand intrebam despre politica de explainability , adica daca pot explica deciziile algoritmului, este esential sa primim raspunsuri clare, documentate si testate, nu explicatii superficiale. Altfel, implementam tehnologie si importam riscuri in companie fara un management adecvat al acestora.

Am fost abordat recent de o companie care folosea AI pentru a analiza in timp real feed-uri video din magazine si dorea sa transfere aceasta tehnologie in lanturile de retail. Scopul nu era securitatea, ci si recunoasterea expresiilor faciale si adaptarea automata a promotiilor. Cand am intrebat daca a fost facuta o analiza de impact asupra vietii private sau daca exista o decizie formala de asumare a riscurilor etice, raspunsul a fost: "furnizorul are toate certificarile". Dar daca nu are toate certificarile? Cine raspunde, de fapt - strategic, operational si reputational? Furnizorul, retailerul? Sau amandoi?

De fapt, aici este miezul problemei. AI-ul nu este doar un instrument tehnologic, ci un actor care influenteaza, direct sau indirect, deciziile unei organizatii. Cu cat este mai integrat in procesele interne, cu atat este mai necesara o guvernanta reala si articulata. Nu e suficient ca boardurile sa aprobe bugete de transformare digitala sau sa intrebe trimestrial daca "functioneaza AI-ul". Este esential sa existe un cadru in care AI-ul este auditat, contextualizat si supus acelorasi rigori ca orice alt sistem critic.

Uniunea Europeana a inteles acest lucru si a actionat. "AI Act", adoptat in 2024, este primul cadru legal comprehensiv pentru inteligenta artificiala, bazat pe o clasificare a riscurilor: de la cele minime, acceptate fara restrictii, la cele ridicate, care necesita audit, supraveghere umana, transparenta, guvernanta a datelor si documentatie completa. Sistemele care afecteaza viata oamenilor, in creditare, sanatate, educatie, angajare sau justitie, sunt considerate "high-risk". Orice companie care le foloseste trebuie sa indeplineasca cerinte clare, sub sanctiunea unor amenzi de pana la 7% din cifra de afaceri. Pentru prima data, membrii de board pot raspunde legal pentru un algoritm pe care nu l-au inteles sau validat corespunzator.

Si in acest context, cine raspunde efectiv pentru AI intr-o companie? In multe organizatii, responsabilitatea este difuza: IT, HR, legal, marketing sau digital transformation. Insa realitatea este ca, fara o functie clara care sa coordoneze intregul ecosistem AI, guvernanta ramane fragila. Unele companii din afara Romaniei au inceput sa numeasca un Chief AI Officer. Altele integreaza aceasta responsabilitate in structura CIO-ului sau, mai nou, a Chief Data & Ethics Officer-ului, atunci cand exista. Dar in lipsa unei asumari formale, cu raportare directa catre CEO, AI-ul risca sa ramana un teritoriu gri neasumat decizional. In companiile in care sunt advisor, recomand ca responsabilitatea finala sa revina unui "sponsor executiv" cu greutate, ideal CEO sau CFO, iar supravegherea sa fie formalizata intr-un comitet mixt: tehnic, juridic si etic.

In organizatiile unde AI-ul este deja integrat, iar conducerea executiva si/sau boardul primeste lunar rapoarte generate de AI, aceste rapoarte au inceput ca instrumente de suport, dar treptat au devenit influentatori decizionali. Nimeni nu mai intreaba "de ce spune asta AI ul?", ci doar "cat de repede putem implementa ce spune?". Riscul nu este generat de AI, dar in special de abandonarea discernamantului uman.

De aceea, boardurile trebuie sa intrebe: Cine decide unde integram AI-ul si de ce? Exista o evaluare a riscurilor, nu doar a eficientei? Cum documentam deciziile luate cu suport AI si cum gestionam erorile algoritmului? Avem un cod etic pentru AI sau doar un contract cu vendorul?

Discutam in comunitatea de profesionisti in guvernanta corporativa urmatoarea intrebare: "Putem avea un membru AI in board?" In Asia, exista start-up-uri care au numit un AI ca observator permanent in board, cu acces la documente, la date financiare si la procesele decizionale. AI-ul ofera recomandari, face previziuni si chiar voteaza simbolic. Dar etic si juridic, apar intrebari fundamentale. Poate AI-ul sa aiba obligatii legale fata de companie si actionari? Poate intelege nuantele culturale, riscurile reputationale sau contextul politic? Poate evalua un CEO, nu doar in baza KPI-urilor, ci si in baza integritatii si a capacitatii de leadership in criza? Deocamdata, raspunsul este nu. Dar intrebarea merita pusa serios, pentru a intelege cat de departe suntem dispusi sa impingem delegarea deciziei.

Din fericire, boardurile au datoria sa inteleaga ceea ce aproba. Sa puna intrebari, sa ceara audituri, sa defineasca linii rosii, sa ceara explicatii si sa nu lase niciun algoritm sa ia decizii ireversibile fara asumare umana. Pentru ca AI-ul poate genera eficienta, dar doar guvernanta genereaza incredere.

Ciprian Ladunca ocupa pozitia de Managing Partner in cadrul LCL Advisory, este membru in consiliile de administratie ale unor companii din diverse sectoare si detine functia de Presedinte al Comitetului pentru Guvernanta Corporativa al Camerei de Comert Americane, AmCham Romania.

Legal disclaimer:

Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.


Articole asemanatoare