Gara për Inteligjencën Artificiale, gjigantët po sakrifikojnë sigurinë
Në mars, dy punonjës të Google, të cilët ishin përgjegjës për vlerësimin e produkteve të AI të kompanisë u përpoqën të ndalonin lëshimin e chatbotit të AI, duke paralajmëruar se po jepte përgjigje të pasakta dhe potencialisht të rrezikshme.
Dhjetë muaj më parë, shqetësime të ngjashme ishin ngritur brenda Microsoft nga ekspertë të etikës dhe punonjës të departamenteve të tjera. Dokumentet e ndryshme theksuan se si teknologjia e AI pas një chatbot mund të “përmbysë” grupet e Facebook me dezinformata, të minojë të menduarit kritik dhe madje të gërryejë themelet e shoqërisë moderne.
Përfundimisht të dy gjigantët e teknologjisë lëshuan chatbot-et e tyre. Microsoft e prezantoi atë së pari, në një ngjarje të madhe në shkurt, duke zbuluar kombinimin e një A.I. chatbot me motorin e kërkimit Bing. Google e ndoqi rreth gjashtë javë më vonë me chatbot-in e vet, Bard.
Konkurrenca u përshpejtua në një furi në nëntor kur OpenAI, një startup në San Francisko në të cilin Microsoft po investon miliarda, lëshoi ChatGPT, një chatbot me inteligjencë artificiale që brenda disa muajsh theu rekordin e përdorimit, duke tërhequr 100 milionë përdorues nga e gjithë bota më shpejt se TIK Tok.
Thyerja e etikës
Suksesi spektakolar i ChatGPT i ka shtyrë Microsoft-in dhe Google-in të ndërmarrin rreziqe më të mëdha me udhëzimet etike që kanë qenë në fuqi prej vitesh për të siguruar që teknologjia të mos shkaktojë probleme sociale , sipas 15 punonjësve aktualë dhe të mëparshëm dhe dokumenteve të brendshme të kompanive të cituara nga NYT.
Kur industria e teknologjisë papritmas zhvendoset drejt një lloji të ri teknologjie, kompania e parë që prezanton një produkt do të dalë si fituese në afat të gjatë vetëm sepse arriti atje e para. Ndonjëherë ndryshimi është vetëm javë.
Rreth dy javë më parë, pyetja për rreziqet e mundshme të A.I. u kthye në sferën publike kur më shumë se 1000 studiues dhe udhëheqës të teknologjisë, duke përfshirë Elon Musk dhe bashkëthemeluesin e Apple, Steve Woniak, kërkuan një “pauzë” gjashtëmujore në zhvillimin e teknologjisë së fuqishme A.I. Në një letër publike, thanë ata kjo teknologji mund të shoqërohet me “rreziqe serioze për shoqërinë dhe njerëzimin”.
Autoritetet rregullatore thonë se do të ndërhyjnë. Bashkimi Evropian propozoi një kuadër rregullator për inteligjencën artificiale dhe Italia ndaloi përkohësisht ChatGPT. Në Shtetet e Bashkuara, Presidenti Biden të martën u bë lideri i fundit që vë në dyshim sigurinë e A.I.
“Kompanitë e teknologjisë kanë përgjegjësinë të sigurohen që produktet e tyre të jenë të sigurta përpara se t’i lëshojnë ato,” tha ai nga Shtëpia e Bardhë. I pyetur nëse Inteligjenca Artificiale është e rrezikshme, ai u përgjigj: “Do të shohim. Mund të jetë”.
“Edhe zhvilluesit e AI nuk i kuptojnë plotësisht ato”
Studiuesit thonë se Microsoft dhe Google po rrezikojnë duke lançuar një teknologji që edhe zhvilluesit pas zhvillimit të saj nuk e kuptojnë plotësisht.
Google lançoi Bard pas vitesh grindjesh të brendshme nëse përfitimet e A.I. tejkalojnë rreziqet. Ai kishte lançuar Meena, një chatbot i ngjashëm, në vitin 2020, por ai sistem u konsiderua shumë i rrezikshëm për t’u nisur, thanë tre persona me njohuri për këtë çështje. Këto shqetësime u zbuluan më herët nga Wall Street Journal.
Google ishte në dijeni
Në të njëjtin vit, Google ndaloi dy nga hulumtuesit kryesorë të inteligjencës artificiale dhe etikës, Tinit Gebru dhe Margaret Mitchell, nga botimi i një letre që paralajmëronte se modelet e mëdha gjuhësore të përdorura në sistemet e reja të A.I. do të mund të lëshonin gjuhë abuzive.
Studiuesit u hoqën pasi Dr. Gebru kritikoi performancën e kompanisë në drejtim të përfshirjes dhe Dr. Mitchell u akuzua për shkelje të kodit të sjelljes së kompanisë kur ajo ruajti disa nga emailet e saj të punës në një llogari personale të Google Drive.
Shqetësimet mbetën. Në janar 2022, Google u përpoq të parandalonte një studiues tjetër, Dr. El Mahdi, nga botimi i një studimi kritik, sipas NYT.
Dr. Mahdi, një profesor universiteti, përdori teorema matematikore për të paralajmëruar se A.I. ata janë më të prekshëm ndaj sulmeve të sigurisë kibernetike dhe vijnë me rreziqe të pazakonta të privatësisë, sepse ka të ngjarë të kenë akses në të dhënat private të ruajtura në sajte të ndryshme në internet.
Pas lançimit të ChatGPT, shefi ligjor i Google, Kent Walker, u takua me drejtuesit nga divizionet e kërkimit dhe sigurisë të Bordit të fuqishëm të Vlerësimit të Teknologjisë së Avancuar të kompanisë. Ai u tha atyre se Sundar Pichai, CEO i Google, po shtynte fort për lançimin e teknologjisë AI të gjigantit të teknologjisë.
Në mars, dy anëtarë të ekipit të Jenait paraqitën një vlerësim rreziku për sistemin Bard, duke rekomanduar që ai të mos lëshohej menjëherë, sipas dy personave me njohuri për procesin. Pavarësisht masave mbrojtëse, ata menduan se chatbot nuk ishte gati.
Microsoft nuk i ka ndjekur vazhdimisht rregullat
Zyra e Microsoft-it e Inteligjencës Artificiale Përgjegjëse ka vendosur rregulla dhe politika përkatëse, por udhëzimet nuk janë zbatuar apo ndjekur në mënyrë të vazhdueshme, i thanë gazetës amerikane pesë punonjës aktualë dhe të mëparshëm.
Megjithëse ekzistonte parimi i transparencës, ekspertët e etikës që vlerësonin chatbots nuk morën përgjigje se cilat të dhëna përdorte OpenAI për të zhvilluar sistemet e tij, sipas tre personave të përfshirë në punë. Disa argumentuan se integrimi i chatbot-eve në një motor kërkimi ishte një ide veçanërisht e keqe, duke pasur parasysh se ndonjëherë jepeshin detaje të rreme, sipas një personi me njohuri të drejtpërdrejta për bisedat në fjalë.
Në vjeshtë, Microsoft filloi shpërbërjen e një prej grupeve më të mëdha të etikës së teknologjisë. Ekipi, “Etika dhe Shoqëria”, trajnoi dhe këshilloi drejtuesit e produkteve të kompanisë në mënyrë që ato të dizajnoheshin dhe tregtoheshin me përgjegjësi. Në tetor, shumica e anëtarëve të ekipit u transferuan në ekipe të tjera.
Ata pak që mbetën morën pjesë në takimet e përditshme me ekipin e Bing-ut, duke u përpjekur për të nisur chatbot-in. John Montgomery, një ekzekutiv në departamentin e AI, u shkroi atyre në një email dhjetorin e kaluar se puna e tyre mbeti jetike dhe se më shumë ekipe do të kishin nevojë për ndihmën e tyre.
Pas prezantimit të mundësuar nga A.I. Bing, ekipi i etikës regjistroi shqetësimet e pa adresuara. Përdoruesit mund të përfundojnë shumë të varur nga mjeti. Përgjigjet e pasakta mund të mashtrojnë përdoruesit dhe disa mund të besojnë se chatbot, i cili flet në vetën e parë dhe përdor emoji, ishte njerëzor.
Në mes të marsit, anëtarët e ekipit u pushuan nga puna, por qindra punonjës janë ende duke punuar për çështjet e etikës.