Oamenii de ştiinţă testează sistemele AI: Cât de inteligentă este Inteligenţa Artificială?

T&T Plus

de TU Berlin , Fraunhofer HHI , SUTD

Oamenii de ştiinţă testează sistemele AI: Cât de inteligentă este Inteligenţa Artificială?

Inteligența artificială (AI) și algoritmii de machine learning, precum deep learning, devin părți integrate în din ce în ce mai multe zone din viețile noastre: susțin asistenții digitali de limbă sau serviciile de traducere, îmbunătățesc diagnosticele medicale și sunt indispensabile pentru tehnologiile viitorului, precum conducerea autonomă.  Bazate pe o cantitate mereu crescătoare de date, precum și pe arhitecturi puternice și inovatoare ale computerelor, capacitatea algoritmilor de învățare pare să fie egală sau chiar superioară celei a oamenilor. Problema: până acum, oamenii de știință înțelegeau foarte puțin cum iau decizii sistemele AI. Astfel, adesea nu era clar dacă aceste decizii erau inteligente sau dacă erau doar succese statistice.

Cercetătorii de la Technische Universität Berlin (TU Berlin), Fraunhofer Heinrich Hertz Institute (Fraunhofer HHI) și Singapore University of Technology and Design (SUTD) au abordat această problemă și au oferit o privire în spectrul divers al „inteligenței“ observat în sistemele AI curente, în special analizând aceste sisteme folosind o tehnologie nouă ce permite analiza și cuantificarea automată. Munca lor a fost publicată în Nature Communications.

Cea mai importantă cerință obligatorie pentru această tehnologie nouă este layer-wise relevance propagation (LRP), o tehnologie dezvoltată de TU Berlin și Fraunhofer HHI care permite vizualizarea pe baza criteriilor folosite de sistemele AI când iau decizii. Analiza relevanței spectrale (SpRAy), o extensie a tehnologiei LRP, identifică și cuantifică un spectru larg de comportamente învățate de luare a deciziilor. Aceasta de asemenea face posibilă identificarea luării deciziilor nedorite, chiar și în seturi foarte mari de date.

"Ceea ce denumim AI explicabil este unul dintre cei mai importanți pași spre o aplicare practică și diseminare a AI. Trebuie să ne asigurăm că nu sunt folosiți algoritmi AI cu strategii suspecte de rezolvare a problemelor sau algoritmi care folosesc strategii de trișare, în special în zone precum diagnosticul medical sau sisteme critice de siguranță." Dr. Klaus-Robert MÜLLER, Profesor de Machine Learning, TU Berlin

Acești algoritmi proaspăt dezvoltați le-au permis oamenilor de știință nu numai să testeze sistemele AI existente, dar să și deriveze informații cantitative: un întreg spectru este observat, variind de la comportamente naive de rezolvare a problemelor până la strategii de trișare sau sisteme care folosesc soluții „inteligente“ cu strategii foarte elaborate.

Clever Hans era un cal despre care se credea că putea să numere, să adune și care devenise o senzație științifică în jurul anilor 1900. Mai târziu s-a descoperit că Hans nu putea face deloc calcule, dar putea totuși să ofere răspunsul corect la 90% din adunările pe care trebuia să le facă pe baza reacției celui ce întreba.

"Am fost foarte surprinși de cât de larg este spectrul strategiilor învățate de rezolvare a problemelor. Chiar sistemele AI moderne nu au găsit întotdeauna o abordare cu sens, cel puțin nu dintr-o perspectivă umană, în schimb au abordat uneori ceea ce noi numim strategii «Clever Hans»." Dr. Wojciech Samek, Group Leader, Fraunhofer HHI

Echipa din jurul lui Klaus-Robert Müller și Wojciech Samek a descoperit strategii similare cu „Clever Hans“ într-o serie de sisteme AI. Un exemplu este oferit de un sistem AI care cu mai mulți ani în urmă a câștigat mai multe competiții de clasificare a imaginilor urmând o strategie care poate fi considerată drept naivă din perspectiva umană: el clasifica imaginile în principal pe baza contextului. Imaginile având multă apă, de exemplu, erau asignate categoriei „navă“. Alte imagini cu șine erau clasificate drept „tren“. În timp ce alte imagini erau clasificate corect pe baza filigranului de protecție de copyright. De fapt, acest sistem AI nu a rezolvat sarcina oferită, de a identifica nave sau trenuri, chiar dacă în cele din urmă a clasificat corect majoritatea imaginilor.

Cercetătorii au reușit de asemenea să identifice astfel de strategii ineficiente de rezolvare a problemelor într-un număr de algoritmi AI moderni, așa-zisele rețele neuronale adânci, care până acum erau considerate imune la astfel de pierderi. Acești algoritmi își bazează deciziile de clasificare în parte pe artefacte care erau create în timpul pregătirii imaginii și care nu au nimic de-a face cu conținutul imaginii în sine.

„Astfel de sisteme AI sunt complet inutile în practică. Chiar folosirea lor în diagnosticarea medicală sau în zone critice de securitate aduce pericole enorme“, avertizează Klaus-Robert Müller: „Este destul de rezonabil că până la jumătate din sistemele AI în folosință se bazează implicit sau explicit pe astfel de strategii «Clever Hans». Acum trebuie să examinăm sistematic situația ca să dezvoltăm sisteme AI sigure”.

Utilizând noua lor tehnologie, cercetătorii au identificat sistemele AI care au învățat neașteptat strategii „inteligente”. Exemplele includ sisteme care au învățat să joace jocurile Atari Breakout și Pinball. „În aceste cazuri, sistemele AI în mod clar au înțeles conceptul jocurilor și au reușit să găsească un sistem inteligent de a aduna multe puncte într-o manieră precisă, în timp ce riscurile erau mici. Uneori, sistemul intervine în feluri în care un jucător real nu ar face-o“, spune Wojciech Samek.

„Dincolo de înțelegerea strategiilor AI, munca noastră stabilește utilitatea explicării AI pentru proiectarea seturilor de date, în speță pentru înlăturarea artefactelor dintr-un set de date care ar face un AI să învețe strategii defectuoase. În plus, ajută la deciderea căror exemple nemarcate ar trebui să fie adnotate și adăugate astfel încât eșecurile unui sistem AI să fie reduse“, adaugă Alexander Binder, profesor asistent la SUTD.

„Tehnologia noastră automată este cu sursă deschisă și disponibilă tuturor oamenilor de știință. Ne vedem munca drept un prim pas important din mulți alții înspre a face sistemele AI mai robuste, explicabile și sigure în viitor. Aceasta este o cerință obligatorie esențială pentru folosirea generală a AI“, conchide Klaus-Robert Müller. 

(Comunicat de presă Technische Universität Berlin și Fraunhofer Heinrich Hertz Institute și Singapore University of Technology and Design.)


Accept cookie

www.ttonline.ro utilizează fişiere de tip cookie pentru a personaliza și îmbunătăți experiența ta pe Website-ul nostru.

Te informăm că ne-am actualizat politicile pentru a integra în acestea și în activitatea curentă a www.ttonline.ro cele mai recente modificări propuse de Regulamentul (UE) 2016/679 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera
circulație a acestor date. Înainte de a continua navigarea pe Website-ul nostru, te rugăm să aloci timpul necesar pentru a citi și înțelege conținutul Politicii de Cookie.

Prin continuarea navigării pe Website-ul nostru confirmi acceptarea utilizării fişierelor de tip cookie conform Politicii de Cookie. Îți mulțumim pentru acest accept și nu uita totuși că poți modifica în orice moment setările acestor fişiere cookie urmând instrucțiunile din Politica de Cookie.