În doar câțiva ani scurți, AI a devenit integrat în operațiunile de afaceri de zi cu zi, multe companii se mișcă rapid pentru a automatiza procesele și a se baza pe sisteme conduse de AI. Dar conform lui Georg Meyer, un strateg și expert în sisteme, viteza și confortul pot veni cu un cost, mai ales când companiile pierd vizibilitatea asupra modului în care funcționează cel mai important sisteme ale lor.
Meyer avertizează că unul dintre cele mai mari riscuri este un fals sentiment de înțelegere. "Companiile pot crede că știu ce se întâmplă din cauza prompturilor pe care le-au dat", explică el, "dar nu au o vizibilitate reală asupra a ceea ce se întâmplă în interiorul cutiei."

Sistemele AI moderne, în special modelele lingvistice mari, sunt puternice, dar dificil de inspectat complet. Procesele lor interne nu sunt întotdeauna transparente, iar rezultatele lor pot varia din cauza aleatorietății încorporate. Aceasta creează provocări în jurul consistenței și fiabilității, mai ales când AI este utilizat în funcțiile de afaceri de bază. "Există riscuri ascunse pentru reproductibilitate și fiabilitate", spune Meyer, "care pot fi catastrofale când afectează inima companiei."
Pentru Meyer, soluția nu este să evite AI, ci să se asigure că înțelegerea umană rămâne centrală. Companiile au încă nevoie de oameni care știu cum funcționează sistemele, chiar dacă acele sisteme sunt susținute de AI.
Câștiguri pe termen scurt, riscuri pe termen lung
O altă preocupare pe care o subliniază Meyer este impactul pe termen lung al AI asupra expertizei din cadrul organizațiilor. În timp ce AI poate accelera dramatic fluxurile de lucru și poate ajuta la transformarea cunoștințelor în acțiune, dependența excesivă de el poate veni cu consecințe neintenționate.
"Atât dependența excesivă, cât și subdependența pot fi riscante", spune Meyer. "AI poate reduce timpul necesar pentru aplicarea expertizei, dar ridică o întrebare importantă: cum pregătim următoarea generație de experți dacă nu dezvoltă niciodată fundamentele?"
Pe termen scurt, AI poate face echipele mai productive. Dar dacă angajații încep să depindă de el pentru gândirea de bază și rezolvarea problemelor, companiile riscă să piardă expertiza necesară pentru a gestiona situații complexe, neașteptate sau care necesită o atingere umană. Meyer crede că atât companiile, cât și educatorii trebuie să fie intenționați în menținerea cunoștințelor fundamentale, în special pentru scenariile în care AI nu poate fi considerat de încredere.
Responsabilitatea aparține încă oamenilor
Poate cea mai importantă problemă pe care o ridică Meyer este responsabilitatea. Pe măsură ce sistemele AI preiau mai multă responsabilitate, unele organizații pot fi tentate să schimbe vina atunci când lucrurile merg prost. Meyer este clar că aceasta nu este o abordare viabilă.
"Responsabilitatea și omologul său legal, răspunderea, sunt atașate în mod fundamental de oameni", spune el. "Nu poți să-ți speli mâinile de un rezultat prost spunând 'AI a făcut-o'."
El subliniază că multe companii încearcă deja să navigheze în această zonă cenușie. Furnizorii de AI includ adesea declarații de exonerare că sistemele lor pot face greșeli, în timp ce industrii precum cea auto promovează funcții de "condus automat", dar încă țin șoferul uman responsabil. Cu toate acestea, Meyer argumentează că dacă sistemele sunt cu adevărat autonome, responsabilitatea trebuie să se mute către cei care le proiectează și le implementează.
Acest lucru se aplică chiar și în cazuri de utilizare mai mici, de zi cu zi. De exemplu, companiile care utilizează AI pentru a construi aplicații care gestionează date sensibile nu pot presupune că tehnologia va gestiona securitatea corect. "AI-ul nu este însărcinat cu datele", spune Meyer. "Compania este."







