Unul dintre principalele progrese tehnologice de astazi este asa-numita invatare automata a sistemelor inteligente: vehicule autonome, drone fara pilot, roboti care picteaza imagini sau scriu cantece; pe scurt, toate acestea masini care emuleaza oamenii imitand inteligenta umana.

Cu toate acestea, pana acum cativa ani aceasta ecuatie tehnologica a ignorat unul dintre cele mai esentiale aspecte ale inteligentei umane: inteligenta emotionala.

Fiecare decizie a fiintei umane graviteaza pe emotii; Ele ne conditioneaza si ne influenteaza. Astfel, daca dorim ca o masina sa reproduca comportamentul uman, pare evident ca, pentru a realiza acest lucru, ar trebui sa ne asiguram ca masina poate simti ceea ce simte un om in fiecare moment precis cand ia o decizie. Si atunci apare intrebarea: poate o masina sa simta, sa fie empatica sau sa devina emotionala?

Invatare automata sub tutela umana

A priori , pentru cineva din afara lumii inteligentei artificiale, atribuirea unei emotii unei masini poate parea bizar si chiar nebunesc. Putem accepta, poate, ca masina recunoaste, prin interpretarea gesturilor si atitudinilor umane, ce emotie simtim in orice moment sau care este starea noastra de spirit. Dar in niciun caz nu ne este logic sau imaginabil ca ei pot simti si, cu atat mai putin, sa adopte o decizie in concordanta cu acest sentiment, invatand si evoluand datorita deciziilor lor.

Ei bine, invatarea automata, o ramura a inteligentei artificiale, permite masinilor sa rezolve toate tipurile de probleme, in majoritatea cazurilor mai bine decat oamenii. Pentru a face acest lucru, foloseste metode care ii permit sa gaseasca cea mai buna solutie si sa invete in mod autonom si care, in plus, sunt pe deplin implementate in sectoarele productiv si de agrement.

Din aceasta perspectiva, modelele de invatare automata necesita utilizarea unei cantitati uriase de date. Acestea, la randul lor, se bazeaza pe o schema complet a priori: exista intotdeauna un om care decide cum sa introduca datele in masina si cum vor fi clasificate si etichetate, determinand valoarea de destinatie pentru a servi drept ghid in deciziile succesive. .

Complexitatea emotiilor umane

Astfel, in principiu, cu exceptia erorii umane in introducerea sau clasificarea datelor, aparatul ar trebui sa dea intotdeauna acelasi raspuns pentru fiecare intrare. Totusi, la oameni, emotiile inseamna adesea ca, in aceeasi situatie, aceasta valoare de raspuns este diferita in functie de starea lor de spirit. Si acesta este momentul in care masinile nu pot rezolva problema.

Prin urmare, o masinarie va putea reprezenta o stare emotionala cu o marja larga de realitate, dar va fi doar o reflectare, ca un portret, a unor situatii reale traite anterior de fiinta umana. Totul va fi acolo.

Mai mult, desi masinile ar putea invata emotii, sentimente sau dorinte, ar trebui sa tina cont si in acel proces de „etichetare” despre care am vorbit inainte de factorii nedoriti inerenti tuturor sentimentelor. In caz contrar, s-ar obtine modele partinitoare (modele care prioritizeaza o parte a problemei) si realitatea nu ar fi imitata in mod autentic. Aceasta intrebare transforma subiectul de care ne ocupam intr-o problema deosebit de complexa care ne aminteste de ceea ce s-a intamplat in acelasi sens cu o alta stiinta, dreptul.

Partea intunecata a sentimentelor

Dreptul apare in societate, ca si inteligenta artificiala, pentru a organiza si imbunatati fiintele umane, pentru a le reglementa convietuirea si a spune cum ar trebui sa se comporte, incercand sa previna conflictele intre oameni. Cu toate acestea, pentru a realiza acest lucru, el este fortat sa ia ca punct de referinta cele mai negative aspecte ale relatiilor umane. Exemplul cel mai paradigmatic este, in acest scop, relatiile, unde se presupune ca emotia predominanta este iubirea.

Daca reflectam putin la aceasta tema, ne dam seama ca legea si iubirea au putin sau nimic de-a face una cu cealalta si ca ambele se nasc dintr-o idee diametral opusa. In relatiile umane, iubirea este perceputa ca un angajament de daruire si acceptare reciproca, dar legea actioneaza in ele ca si cum ar fi o masinarie, un arbitru care incearca sa se asigure ca relatia de dragoste dintre doua persoane se dezvolta intr-un mod sanatos si reciproc. si ca nu exista inegalitati sau utilizare avantajoasa de catre niciuna dintre parti.

Legea actioneaza, mai ales, in cazul unei despartiri si, mai ales, in cazurile de violenta de gen. In ele, dragostea genereaza cea mai trista situatie pe care si-o putem imagina: afectivitatea in care presupunem ca consta dragostea devine toxica pentru membrii cuplului. Atat de mult incat daunele pe care le produc pot duce uneori la ca unul dintre ei sa puna capat vietii celuilalt.

Dupa cum vedeti, nici macar legea, care exista de mii de ani, nu a reusit sa defineasca acest sentiment in mod pozitiv, doar in sens negativ (ceea ce noi social consideram ca nu este iubire). Aceasta pentru ca legea a incercat sa elimine aspectele emotionale ale iubirii pentru a le reglementa.

Daca la cele de mai sus adaugam ca iubirea este cea mai raspandita si cel mai putin explicata stiintific starea emotionala – in ciuda progreselor recente in neurobiologie – din cauza dificultatii pe care o implica interventia factorilor biologici, in special a celor hormonali, atunci este greu ca la fel sa nu se intample. se intampla atunci cand incearca sa modeleze computational emotiile prin inteligenta artificiala. Atunci cum poate fi invatata o masina ce este dragostea sau orice alt sentiment sau emotie?

Concluzia la toate acestea este ca, daca nu putem inca defini stiintific emotiile, nu le putem invata unei masini. Prin urmare, astazi nu este posibil sa se creeze inteligenta artificiala emotionala autentica. Dupa cum a spus savantul Amelia Brand in Interstellar , „dragostea este cea mai mare forta din Univers”. Si, la fel ca multe alte mistere ale aceleiasi, mai avem un drum lung de parcurs pana sa putem invata masinile sa o invete. Daca acest lucru este cu adevarat posibil.