Ana e errėt e inteligjencės

Ana e errėt e inteligjencės

SHPËRNDARJE

Will Knight • 31 Korrik 2017 • 15:41 •

 

Inteligjenca artificiale bazohet mbi një teknologji që u mundëson kompjuterëve të mësojnë vetë. Por ka një problem: vetë kërkuesit që e kanë projektuar nuk arrijnë të kuptojnë se në çfarë mënyre makinat i marrin vendimet

Një vit më parë një makinë e çuditshme pa shofer është nxjerrë nëpër rrugët e qeta e Monmouth County në New Jersey të Shteteve të Bashkuara. Prototipi, i zhvilluar nga një grup kërkuesish të prodhuesit të procesorëve grafikë Nvidia, kishte një pamje të ngjashme me atë të makinave të tjera që ecin vetë. Por kishye diçka krejtësisht të ndryshme karshi modeleve Google, Tesla dhe General Motors, që demonstronte fuqinë në rritje të inteligjencës artificiale.

Makina e Nvidia nuk ndiqte udhëzimet e një inxhinieri apo të një programuesi, por i besonte tërësisht një algoritmi që kishte mësuar vetë të voziste duke vëzhguar një qenie njerëzore. Projektimi i një makine të këtij lloji është një ndërmarrje e jashtëzakonshme, por edhe shqetësuese, pasi nuk është krejtësisht e qartë sesi makina i merr vendimet e saj. informacionet e regjistruara nga ndjesorët në një rrjet të madh neuronesh artificiale që përpunojnë të dhënat dhe japin udhëzimet e nevojshme për të përdorur timonin, frenat dhe sistemet e tjera. Rezultatet duken të ngjashme me sjelljen që do të pritej nga një shofer në mish e kocka.

Por çfarë do të ndodhte nëse një ditë makina do të bënte një lëvizje të papritur, për shembull të shkonte e të përplasej me një pemë apo të ndalej me semaforin jeshil? Në gjendjen aktuale do të ishte shumë e vështirë të kuptohej se pse ka ndodhur. Sistemi është aq i komplikuar sa që deri edhe inxhinierët që e kanë projektuar kanë vështirë për t’i individualizuar motivet në origjinën e çdi vendimi. Është edhe e pamundur t’u kërkohet një shpjegim makinave: nuk ka një kriter të caktuar për ta projektuar sistemin në mënyrë që të jetë në gjendje të shpjegojë se pse e bën atë që bën.

Mendoja misterioze e kësaj makine të çon në një çështje të hapur lidhur me inteligjencën artificiale. Teknologjia në themel të makinës, e njohur si deep learning, në vitet e fundit është demonstruar mjaft efikase në zgjidhjen e problemeve dhe shpesh është përdorur për qëllime si përkthimi, njohja vokale dhe image captioning (përshkrimi i imazheve nëpërmjet didaskalive). Tani pritet që të njëjtat teknika të jenë në gjendje të diagnostikojnë sëmundje vdekjeprurëse, të bëjnë investime milionëshe dhe të revolucionarizojë sektorë të tërë industrialë.

Por e gjitha kjo nuk do të ndodhë (ose të paktën nuk do të duhej të ndodhte) nëqoftëse nuk do të gjendet mënyra për t’i bërë teknikat si puna e deep learning më të kuptueshme për krijuesit e tyre dhe përgjegjësit kryesorë për atë që i përdor. Përndryshe do të jetë e vështirë të parashikohet se kur do të ketë probleme, se kur do të jenë të pashmangshme. Jo rastësisht, makina e Nvidia është akoma në fazë eksperimentale. Sot në Shtetet e Bashkuara përdoren tashmë modele matematikore për të zgjedhur, për shembull, se kush mund të sigurojë lirinë e vigjëluar, kush mund të marrë një hua dhe kush duhet të punësohet për një vend pune. Duke hyrë në këto modele mund të kuptohet mënyra e tyre e të arsyetuarit.

Megjithatë, kohët e fundit bankra, ushtria, bizneset dhe subjekte të tjera pu kushtojnë vëmendje sistemeve komplekse të reja të kuptimit automatik që rrezikojnë të bëjnë krejtësisht të padepërtueshëm proceset vendimmarrëse të automatizuara. Deep learning, sistemi më i përhapur, është një mënyrë totalisht e re e programimit të kompjuterëve. “Qysh tani është problem i rëndësishëm dhe do të jetë shumë më tepër në të ardhmen”, vëren Tommi Jaakkola, një pedagog nga Massachusetts Institute of Technology (MIT) që punon për aplikacione të kuptimit automatik. “Për çdo vendim – në fushën financiare, mjekësore apo ushtarake – nuk mund t’i besohet thjesht një kutie të zezë”, domethënë një sistemi për të kuptuar ngjarjet vetëm me gjëra të mbaruara. Dikush thekson tashmë se mundësia për të kërkuar një inteligjencë artificiale siç është arritur në konkluzione të çaktuara duhet të garantohet me ligj.

Nga vera e 2018, Bashkimi Europian mund t’u imponojë kompanive detyrimin për t’u shpjeguar klientëve vendimet e marra nga sistemet e automatizuara. Ndoshta do të rezultojë një ndërmarrje e pamundur, edhe për sisteme që në pamje të parë duken relativisht të thjeshta, si aplikacionet dhe uebsajtet që përdorin deep learning për reklamat apo për të rekomanduar playlist-a me këngë. Kompjuterët që menaxhojnë këto shërbime programohen vetë dhe askush nuk është në gjendje t’i kuptojë sesi e bëjnë. Nuk arrijnë as inxhinierët që i kanë zhvilluar aplikacionet. E gjitha kjo hap një seri pikëpyetjesh të vështira. Me avancimin e teknologjisë herët a vonë do të tejkalohet një prag përtej të cilin përdorimi i inteligjencës artificiale do të kërkojë një akt besimi. Është e vërtetë edhe që ne qeniet njerëzore nganjëherë nuk jemi në gjendje t’i shpjegojmë problemet tona mendore, por nganjëherë i besojmë intuitës për të vlerësuar njerëzit dhe të vendosim nëse t’u besojmë apo jo. Do të arrijnë ta bëjnë edhe me makinat që mendojnë dhe marrin vendime në mënyrë të ndryshme nga qeniet njerëzore? Kurrë më parë nuk qenë ndërtuar makina në gjendje që të bëjnë gjëra të pakuptueshme edhe prej atyre që i kanë krijuar. Si mendojmë të komunikojmë – dhe të biem dakord – me makina inteligjente që mund të rezultojnë të paparashikueshme dhe padepërtueshme? Këto pikëpyetje më kanë shtyrë që të bëj një udhëtim në kërkimin më të avancuar lidhur me inteligjencën artificiale, nga Google tek Apple, përfshi një takim me një prej filozofëve të mëdhenj të epokës tonë.

Shqyrtime klinike

Nel 2015 një grup kërkuesisht të Mount Sinai Hospital në New York ka vendosur që ta zbatojë deep learning për databazën e spitalit, që përfshin qindra informacione për pacientët, nga rezultatet e shqyrtimeve klinike tek vizitat mjekësore. Ka lindur një program, i quajtur Deep Patient, që është krijuar për të përdorur të dhënat e rreth 700000 perosnave. Ku është testuar në pacientët e rinj, është treguar jashtëzakonisht efikas në parashikimin e patologjive. Pa asnjë udhëzim nga ana e specialistëve, Deep Patient ka zbuluar elementë të përsëritur në brendësi të të dhënave spitalore falë të cilave ishte e mundur të parashikohej se kur një person ishte më i ekspozuar ndaj një serie sëmundjesh, midis të cilave tumori në mëlçinë ezezë. Ka metoda të shkëlqyera për parashikimin e sëmundjeve duke u nisur nga kartela klinike e pacientit, thotë Joel Dudley, kreu i grupit të kërkuesve të Mount Sinai Hospital. Por kjo, shton ai, “funksionon shumë më mirë”.

Por, në shumë aspekte, Deep Patient është mister. Për shembull, arrin të parashikojë çuditërisht mirë shfaqjen e shqetësimeve psikiatrike si puna e skicofrenisë. Nga momenti që skicofrenia është e vështirë për t’u parashikuar, Dudley ka pyetur sesi ishte e mundur. Akoma nuk e ka gjetur një përgjigje. Deep Patient nuk ofron asnjë tregues lidhur me ktë. Për t’i dhënë një ndihmë reale mjekëve, një instrument duhet të japë një shpjegim racional të parashikimit të tij, të na sigurojë lidhur me saktësi dhe ndoshta të justifikojë përdorimin e ilaçeve të ndryshme nga ato që janë dhënë deri në atë moment. “Dijmë si ti ndërtojmë këto modele, por nuk dijmë sesi funksionojnë”, thotë i trishtuar Dudley.

Inteligjenca artificiale nuk ka funksionuar gjithmonë në këtë mënyrë. Qysh nga fillimi ka pasur dy shkolla mendimi lidhur me atë sesa duhet të jetë e kuptueshme apo e shpjegueshme. Për shumë njerëz, gjëja më me kuptim ishte të ndërtoheshin makina që të arsyetonin sipas një serie rregullash dhe një logjike, duke e e bërë transparent funksionimin e tyre ndaj kujtdo që do të donte t’i shqyrtonte kodin. Të tjerë theksonin se në fakt inteligjenca do të zhvillohej më lehtësisht sikur makinat të kishin ndjekur shembullin e biologjisë, duke mësuar nga vëzhgimi dhe nga përvoja. Kjo nënkuptonte që të përmbysej krejtësisht mënyra e programimit të kompjuterëve.

Nuk ishte me programuesi që i shkruante komandat për zgjidhjen e një problemi, por ishte programi ai që gjeneronte vetë algoritmin mbi bazën e shembujve dhe të rezultatit të dëshiruar. Teknikat e kuptimit automatik që kanë evoluar në sisteme shumë të fuqishëm të inteligjencës  artificiale të sotëm kanë ndjekur rrugën e dytë: në thelb, makina programohet vetë. Në fillim kjo metodë kishte zbatime praktike të kufizuara dhe, në vitet Gjashtëdhjetë e Shtatëdhjetë, ka mbetur marxhinale. Më pas, kompjuterizimi i shumë sektorëve industrialë dhe dalja e serive të mëdha të të dhënave e kanë rinovuar interesin. E gjitha kjo ka çuar në zhvillimin e teknikave të kuptimit automatik më të evoluara dhe sidomos në evolucionin e një teknologjie të njohur si rrjeti artificial i neuroneve. Qysh në vitet Nëntëdhjetë, rrjetet qenë në gjendje që t’i kuptonin karakteret e shkruara me dorë.

Por vetëm në fillimin e dekadës së fundit, pas rregullimesh dhe rafinimesh të ndryshme, rrjetet e mëdha të neuroneve (apo “rrjetet e thella të neuroneve”) kanë dhënë provë përmirësimesh substanciale në perceptimin automatik. Merita e shpërthimit aktual të inteligjencës artificiale është e deep learning, që u ka dhënë kompjuterëve kapacitete të jashtëzakonshme: për shembull atë të njohjes së gjuhës të folur pothuajse si një njeri në mish e kocka, nja aftë tejet komplekse për ta kodifikuar me anë të makinës. Deep learning e ka transformuar vizionin artificial dhe ka përmirësuar në mënyrë substanciale përkthimin informatik. Sot përdoret për vendime të rëndësishme të çdo lloji në mjekësi, në financë, në manifakturë dhe në sektorë të tjerë. Funksionimi i teknologjive të kuptimit automatik është në thelb më opake sesa sistemet e bazuar mbi rreshta të shkruara nga një programues. Kjo nuk do të thotë se të gjitha teknologjitë e ardhshme e inteligjencës artificiale do të jenë po aq të pakuptueshëm. Por, për nga natyra e tij, deep learning është një “kuti e zezë” jashtëzakonisht e errët.

Nuk mjafton të shikohet në brendësi të një rrjeti neuronesh për të kuptuar sesi funksionon ajo. Skema e arsyetimit të një rrjeti është e ngulitur në sjelljen e mijëra neuroneve të simuluar, të organizuar në dhjetëra apo deri qindra shtresa të ndërlidhura midis tyre. Çdo neuron i shtresës së parë merr një input – për shembull intensitetin e një pikseli të një imazhi – dhe bën një llogari përpara se të emetojë sinjale të reja. Nga ana e tyrë, këta janë transferuar nëpërmjet një rrjeti kompleksi në neuronet e shtresës tjetër e kështu me radhe deri kur nuk arrihet në një rezultat komplesiv. Gjithë kësaj i shtohet një proces i njohur si back-propagation që prek llogaritjet e neuroneve të veçanta në mënyrë që t’i mundësojë rrjetit të mësojë sesi sigurohet një rezultat i caktuar.

Shtresat e shumta që përbëjnë një rrjet të thellë i mundësojnë vetë rrjetit që t’i njohë informacionet në nivele të ndryshme abstragimi. Për shembull, një një sistem të projektuar për të njohur qentë, shtresa inferiore njeh informacione elementare si krifat dhe ngjyrat, shtresat superiore njohin tipare më komplekse si puna e qimeve dhe syve, dhe shtresa më e lartë njeh tërësinë e informacioneve, domethënë qenin. I njëjti sistem, duke i thjeshtuar, zbatohet për inputet e tjera që e bëjnë makinën të mësojë nga vetëvetja: tingujt që formojnë fjalët në diskutim, germat dhe fjakët që përbëjnë shprehjet në brendësi të një tkesti apo lëvizjet e timonit të nevojshme për të vozitur.

Janë përdorur sisteme shumë të sofistikuar për të kërkuar të kuptohet në detaj se çfarë ndodh në këto sisteme. Në 2015 kërkuesit e Google kanë modifikuar një algoritëm për njohjen e imazheve të bazuar mbi deep learning në mënyrë që në vend që të njohë objektet nëpër foto të jetë në gjendje t’i gjenerojë apo t’i modifikojë. Duke e zbatuar në fakt algoritmin sëprapthi, kërkuesit kanë arritur të zbulojnë informacionet që programi përdorur, për shembull, për një njohur një zog apo një shtëpi. Imazhet rezultuese, të prodhuara nga një sistem i quajtur Deep Dream, tregojnë kafshë groteske, të ngjashme me alienë, që dalin nga retë apo nga pemët dhe pagoda haluçinante që dalin nga pyjet apo vargmalet. Imazhet tregojnë se deep learning nuk është gjithmonë krejtësisht i pakuptueshëm dhe zbulojnë se, për të njohur zogjtë, algoritmet synojnë automatikisht ndaj tipareve të dukshme si sqepi dhe pushi.

Por pamjet të bëjnë të kuptosh edhe sa është i ndryshëm deep learning nga perceptimi i qenies njerëzote, duke filluar nga fakti që nxjerr elementë prej informacioneve që ne tentojmë t’i injorojmë krejtësisht. Kërkuesit e Google kanë vërejtur për shembull se kur algoritmi gjeneron imazhin e një shtange për ngritje peshash krijon edhe atë të një krahu që e mban. Konkluzioni i makinës është se krahu është i gjithi një cope me shtangën. Përparime të tjera mund të vijnë nga neuroshkenca dhe nga shkenca konjitive. Një ekip kërkuesisht i udhëhequr nga Jef Clune, asistent në Wyoming University, ka shfrytëzuar ekuivalentin e iluzioneve optike në fushën e inteligjencës artificiale për të vënë në provë rrjetet e thella të neuroneve. Në 2015 Clune ka treguar se imazhe të caktuara mund ta shtyjnë rrjetin që perceptojë gjëra që nuk ekzistojnë, pasi imazhet shfrytëzojnë skemat e njohjes në nivel minimal që kërkon sistemi. Jason Yosinski, një bashkëpunëtor i Clune, ka krijuar një instrument që funksionon si një sondë e futur në tru. Instrumenti synon një neuron në mes të rrjetit dhe kërkon imazhin që e aktivizon më shumë. janë të gjitha imazhe abstrakte (provoni të imagjinoni një përfaqësim impresionistik të një flamingoje apo një çante shkolle) dhe zbulojnë natyrën misteroze të aftësisë perceptuese të makinës.

Një mal me funksione

Këto janë tregues sesi funksionon inteligjenca artificiale. Duhet kërkuar të mësohet më shumë, por nuk është e lehtë. Është ndërveprimi i llogaritjeve në brendësi të një rrjeti të thellë neuronesh që përcakton skemat e njohjes dhe proceset vendimmarrëse më komplekse, por ato llogari janë një labirint funksionesh dhe ndryshoresh matematike. “Sikur rrjeti neuroneve të ishte shumë i vogël, do të mund të arrinim ta deshifronim”, thotë Jaakkola. “Por kur bëhet shumë i madh, me mijëra njësi për çdo shtresë dhe mijëra shtresa, atëhere bëhet praktikisht i pakuptueshëm”.

Në zyrën ngjitur me atë të Jaakkola punon Regina Barzilay, një Docente e MIT-it që ka vendosur t’ia zbatojë kuptimin automatik mjekësisë. Në 2015, në moshën 43 vjeçare, i është diagnostikuar një tumor në gji. Diagnoza ishte në vetvete traumatike, por për të ka qenë edhe më tronditëse kur ka zbuluar se metodat statistikore dhe të kuptimit automatik nuk qenë përdorur në kërkimin onkologjik apo në zgjedhjen e terapive. Barzilay thekson se inteligjenca artificiale mund at revolucionarizojë mjekësinë, por se për t’ia shfrytëzuar potencialitetet duhet shkuar përtej kartelave të thjeshta klinike. Ideja e saj është të përdoren më shumë të dhëna bruto që sot përdoren pak: “Të dhënat lidhur me diagnostikën për imazhe, atom bi patologjitë, të gjithë këto informacione”.

Pas përfundimit të terapisë, Barzilay dhe studentët e saj kanë nisur të punojnë me mjekët e Massachusetts General Hospital për zhvillimin e një sistemi në gjendje të nxjerrë të dhëna nga shënimet e pacientëve për të individualizuar ato me karakteristika klinike interesante për kërkuesit. Por Barzilay ka kuptuar se sistemi duhej të jetë në gjendje t’i shpjegojë arsyetimet e saj. kështu, me ndihmën e Jaakkola dhe të një student, ka shtuar nja pasazh: sistemi nxjerr dhe evidenton fragmente teksti përfaqësues të një tipari të caktuar. Veç kësaj, Barzilay dhe studentët e saj po zhvillojnë një algoritëm deep learning në gjendje që të zbulojë shenjat e para e tumorit në gji në imazhet mamografike dhe synojnë që t’i japin këtij sistemi ndonjë aftësi justifikuese të arsyetimit të tij. “Duhet gjetur një rreth vicioz në të cilin makina dhe njeriu bashkëpunojnë”, thotë Barzilay.

Forcat e armatosura e Shteteve të Bashkuara po investojnë miliarda në projekte që parashikojn ë përdorimin e makinave për të pilotuar automjete dhe mjete fluturuese, identifikuar objektiva dhe ndihmuar analistët që të filtrojnë sasira të mëdha të dhënash. Këtu më shumë se në çdo fushë tjetër, përfshi mjekësinë, ka pak hapësirë për misteret algoritmike dhe Departamenti i Mbrojtjes është i zënë me “shkëmbin” themelor të shpjegueshmërisë. David Gunning, një drejtues i Defense Advanced Research Projects Agency (DARPA), një agjenci qeveritare amerikane që investon në teknologjitë e sigurisë, po koordinon një program me emër jashtëzakonisht të përshtatshëm: Explainable Artificial Intelligence (Inteligjencë Artificiale e Shpjegueshme). Gunning shpjegon se automatizimi po zë vend në shumë sektorë të forcave të armatosura. Analistët e shërbimeve sekrete po testojnë kuptimin automatic për të individualizuar skema në sasinë e mëdha e të dhënave të survejimit në posedim të tyre. Shumë mjete tokësore dhe ajrore janë në fazë zhvillimi dhe testimi. Por ushtarët, ka shumë mundësi, nuk do të ndjeheshin komod në tanke të robotizuar që nuk janë në gjendje të shpjegojnë vendimet e tyre dhe analistët vështirë se do t’i përdorin informacionet në mungesë të një skeme arsyetimi. “Për kështu si janë bërë, shpesh këto sisteme të kuptimit automatic krijojnë alarme false, kështu që analistët kanë nevojë për ndonjë element më shumë që të kuptojnë se pse është një indikacion i tillë”, thotë Gunning.

Në muajin mars DARPA ka zgjedhur 13 projekte akademike dhe biznesore për t’u financuar në kuadër të programit të Gunning. Disa prej këtyre projekteve mund të shfrytëzojnë punën e Carlos Guestrin, Profesor në Washington University. Grupi i Guestrin ka zhvilluar një sistem që u mundëson algoritmeve të kuptimit automatic që të justifikojnë rezultatet e tyre. Në thelb, kompjuteri nxjerr automatikisht nga shembujt e një serie të dhënash dhe i përdor për të dhënë një shpjegim të shpejtë. Për shembull, një sistem i projektuar për të klasifikuar emailat e ardhur nga terroristët normalisht përdor milina emaila të ndryshëm gjatë procesit dhe kuptimit dhe të vendimit. Kurse sistemi i Washington University është në gjendje të izolojë disa fjalëkyçe në një mesazh. Guestrin dhe kolegët e tij kanë gjetur edhe një sistem që u mundëson algoritmeve të njohjes së imazheve që ta kuptojnë skemën e tyre të arsyetimit duke evidentuar pjesët më domethënëse të një imazhi. Problem i këtij dhe i sistemeve të tjera të ngjashme – për shembull, ai i Barzilay – është se shpjegimet janë thjeshtëzuar gjithmonë. Kjo do të thotë se disa informacione të rëndësishme humbasin. “Ëndërra nuk është realizuar akoma. Objektivi është të ndërtohet një inteligjenvë artificiale që të jetë e aftë të ndërveprojë më qenien njerëzore dhe të shpjegojë sjelljen e saj”, thotë Guestrin. “Jemi ende larg nga një inteligjencë artificiale vërtet e papenetrueshme”. Dija sesi arsyeton inteligjenca artificiale do të jetë themelore nëse vërtet teknologjia do të bëhet pjesë përbërëse e jetës tonë të përditshme. Tom Gruber, kreu i ekipit që po zhvillon asistentin virtual Siri të Apple, thotë se shpjegueshmëria është një objektiv kyç i grupit të tij.

Ai dhe kolegët e tij po punojnë për ta bërë Siri gjithnjë e më inteligjent e më të aftë. Gruber nuk flet për zhvillime të ardhshme, por është e lehtë të imagjinohet se nëse Siri na këshillon një restorant, do të donim ta dinim se pse. Ruslan Salakhutdinov, Drejtor Kërkimesh mbi Inteligjencën Artificiale tek Apple dhe Profesor i Asociiuar në Carnegie Mellon University të Pittsburgh në Shtetet e Bashkuara, e konsideron shpjegueshmërinë zemrën e raportit midis qenies njerëzore dhe makinave inteligjente. Ashtu si për sjelljen njerëzore, edhe për inteligjencën artificiale ndoshta nuk do të jetë e mundur ta justifkojë gjithçka bën. “Edhe nëse dikush na jep një shpjegim që duket i arsyeshëm, ka mundëson që do të jetë i paplotë dhe e njëjta mund të shërbejë për inteligjencën artificiale”, thotë Clune. “Për nga natyra e saj, inteligjenca është ndoshta e shpjegueshme në mënyrë racionale vetëm pjesërisht. Ekziston një pjesë që është thjesht instinctive, e pavullnetshme, jo e studiueshme”. Nëse gjërat janë kështu, në një moment të caktuar ose do të duhet t’i besojmë inteligjencës artificiale, ose do të duhet të heqim dorë nga përdorimi i saj. inteligjenca artificiale do të bëhet pjesërisht edhe inteligjencë sociale. Kontrata sociale mbështetet mbi një seri qëndrimesh të pritshme dhe kështu sistemet e inteligjencës artificiale do të duhet të projektohen për t’u përshtatur me normat tona sociale. Nëse vërtet do të ndërtonim tanke robotë dhe makina të tjera në gjendje të vrasin, është themelore që proceset e tyre vendimmarrëse të jenë koherencë me gjykimet tona etike.

Traktat enciklopedik

Për të eksploruar këto koncepte metafizike kam shkuar në Tufts University të Boston, ku kam takuar filozofin Daniel Dennett. Një kapitull i librit të tij të fundit “From bacteria to Bach and back”, një lloj traktati enciklopedik lidhur me ndërgjegjen, hipotezon se një pjesë e evolucionit të inteligjencës do të jetë krijimi i sistemeve në gjendje që të zhvillojnë aktivitete që kush i ka krijuar nuk arrin t’i bëjë dot. “Pyetja është: çfarë masash duhet të marrim për t’i bërë gjërat në mënyrë të qetë, çfarë standardish duhet t’u kërkojmë këtyre sistemeve dhe vetes tonë?”, pyet filozofi. Kështu, Dennett paralajmëron për rreziqet e lidhura me kërkimet e shpjegueshmërisë. “Nëse duhet t’i përdorim këto makina dhe duhet t’u bësojmë atyre, atëhere duhet të kemi kontrollin maksimal mbi si dhe pse na përgjigjen”, thotë ai. Por pasi që ka shumë të ngjarë se nuk ekzistojnë përgjigje të përsosura, duhet t’u mos u besojmë shpjegimeve të inteligjencës artificiale ashtu siç nuk u besojmë atyre të të ngjashmëve tanë, pavarësisht sesa do të ishte inteligjente makina. “Nëse inteligjenca artificiale nuk është në gjendje të shpjegojë më mirë se ne se çfarë bën”, konkludon ai, “atëhere nuk duhet t’i besojmë”./bota.al/