Este societatea pregătită ca inteligența artificială să ia decizii de natură etică?
În cadrul unui nou studiu al cercetătorilor de la Universitatea Hiroshima, oamenii de știință au analizat opinia oamenilor în legătură cu inteligența artificială și capacitatea acesteia de a lua decizii etice prin intermediul a două experimente la care au participat în total 1.102 persoane.
Într-unul dintre experimente, echipa japoneză a prezentat unui grup de 529 de persoane un scenariu ipotetic, bazat pe situația în care șoferul unei mașini ar avea de ales ca, în trafic, să provoace un accident cu victime intrând cu aceasta în unul dintre cele două grupuri de persoane exemplificate, astfel salvând viața celor din grupul pe care nu l-ar alege. Experimentul a fost realizat pentru a compara potențialele alegeri ale persoanelor care au participat la studiu cu deciziile pe care le-ar lua un program bazat pe inteligență artificială.
În schimb, în cel de-al doilea experiment oamenii de știință au propus un exercițiu de imaginație în care persoanele care au participat la studiu au trebuit să aleagă dintre două scenarii politice, primul reprezentând o situație ipotetică în care un guvern a decis ca inteligența artificială să poată fi implementată în mod legal în autoturisme. Pe de altă parte, celălalt scenariu presupunea un sistem de votare în care populația să decidă capacitatea acestor sisteme de a lua decizii în trafic, cele două scenarii fiind propuse de echipă astfel încât să reiasă care ar fi o modalitate mai bună de a introduce inteligența artificială în societate.
Rezultatele arată că majoritatea participanților au marșat spre ideea ca un șofer uman să decidă dintre două grupuri în care ar trebui să intre, involuntar, cu mașina, neavând încredere deplină în inteligența artificială. Conform specialiștilor, acest fenomen este datorat faptului că societatea, în ansamblul ei, nu dorește unanim implementarea acestei tehnologii în viața de zi cu zi. Cu toate acestea, atunci când persoanele care au fost chestionate au fost rugate să încerce să diferențieze opinia lor de cea generală a oamenilor, balanța tindea să se echilibreze, iar inteligența artificială dobândea mai multă încredere din partea acestora.
În plus, un alt factor de care depinde încrederea oamenilor în aceste sisteme este direct proporțională cu încrederea acestora în guvernele proprii, astfel că persoanele din anumite regiuni în care oamenii nu au încredere în acesta au avut tendința să dea răspunsuri predominant negative.
sursa: Science Daily
foto: JackyLeung/Getty Images via Canva.com
Într-unul dintre experimente, echipa japoneză a prezentat unui grup de 529 de persoane un scenariu ipotetic, bazat pe situația în care șoferul unei mașini ar avea de ales ca, în trafic, să provoace un accident cu victime intrând cu aceasta în unul dintre cele două grupuri de persoane exemplificate, astfel salvând viața celor din grupul pe care nu l-ar alege. Experimentul a fost realizat pentru a compara potențialele alegeri ale persoanelor care au participat la studiu cu deciziile pe care le-ar lua un program bazat pe inteligență artificială.
În schimb, în cel de-al doilea experiment oamenii de știință au propus un exercițiu de imaginație în care persoanele care au participat la studiu au trebuit să aleagă dintre două scenarii politice, primul reprezentând o situație ipotetică în care un guvern a decis ca inteligența artificială să poată fi implementată în mod legal în autoturisme. Pe de altă parte, celălalt scenariu presupunea un sistem de votare în care populația să decidă capacitatea acestor sisteme de a lua decizii în trafic, cele două scenarii fiind propuse de echipă astfel încât să reiasă care ar fi o modalitate mai bună de a introduce inteligența artificială în societate.
Rezultatele arată că majoritatea participanților au marșat spre ideea ca un șofer uman să decidă dintre două grupuri în care ar trebui să intre, involuntar, cu mașina, neavând încredere deplină în inteligența artificială. Conform specialiștilor, acest fenomen este datorat faptului că societatea, în ansamblul ei, nu dorește unanim implementarea acestei tehnologii în viața de zi cu zi. Cu toate acestea, atunci când persoanele care au fost chestionate au fost rugate să încerce să diferențieze opinia lor de cea generală a oamenilor, balanța tindea să se echilibreze, iar inteligența artificială dobândea mai multă încredere din partea acestora.
În plus, un alt factor de care depinde încrederea oamenilor în aceste sisteme este direct proporțională cu încrederea acestora în guvernele proprii, astfel că persoanele din anumite regiuni în care oamenii nu au încredere în acesta au avut tendința să dea răspunsuri predominant negative.
sursa: Science Daily
foto: JackyLeung/Getty Images via Canva.com
Data actualizare: 07-06-2022 | creare: 07-06-2022 | Vizite: 444
Bibliografie
AI ethical decision making: Is society ready?, link: https://www.sciencedaily.com/releases/2022/06/220603124906.htm ©
Copyright ROmedic: Articolul se află sub protecția drepturilor de autor. Reproducerea, chiar și parțială, este interzisă!
Alte articole din aceeași secțiune:
- Cooperarea poate fi molipsitoare, mai ales când beneficile pentru ceilalți sunt evidente
- Noi medicamente ar putea ajuta la prevenirea pierderii auzului
- Cofeina nu poate fi utilizată pentru a combate efectele orelor de nesomn
- Expunerea în primii ani de viața la un aer poluat crește riscul de boli cardiovasculare în viață de adult
Din Ghidul de sănătate v-ar putea interesa și:
Forumul ROmedic - întrebări și răspunsuri medicale:
Pe forum găsiți peste 500.000 de întrebări și răspunsuri despre boli sau alte subiecte medicale. Aveți o întrebare? Primiți răspunsuri gratuite de la medici.- Implant silicon sani
- Pentru cei cu anxietate si atacuri de panica FOARTE IMPORTANT
- GRUP SUPORT PENTRU TOC 2014
- Histerectomie totala cu anexectomie bilaterala
- Grup de suport pentru TOC-CAP 15
- Roaccutane - pro sau contra
- Care este starea dupa operatie de tiroida?
- Helicobacter pylori
- Medicamente antidepresive?
- Capsula de slabit - mit, realitate sau experiente pe oameni