Kaloni kohë të madhe duke përdorur ChatGPT, apo “chatbot” të tjerë të inteligjencës artificiale dhe nuk do t’ju duhet shumë kohë që të kuptoni se ata nxjerrin gjëra të pavërteta.
Të përshkruara si halucinacione, informacione të pavërteta apo shpikje të gjërave, tani këto janë shndërruar në problem për çdo biznes, organizatë dhe nxënës të shkollës së mesme, që i përdorin sistemet gjeneruese të inteligjencës artificiale për të hartuar dokumente. Disa po përdorin sistemet e inteligjencës artificiale për detyra që potencialisht kanë pasoja të mëdha, duke filluar nga psikoterapia e deri te kërkimet për hartimin e dokumenteve ligjore.
“Nuk mendoj se sot mund të gjesh ndonjë model që nuk vuan nga ndonjë halucinacion”, tha Daniela Amodei, bashkëthemeluese dhe udhëheqëse e Anthropic, krijuese e “chatbot-it” Claude 2.
“[‘Chatbot-ët’] janë të dizajnuar për të parashikuar fjalën e radhës”, tha Amodei. “Prandaj, ka një shkallë në të cilin modeli e bën këtë në mënyrë të pasaktë”.
Anthropic, kompania themeluese e ChatGPT, OpenAI, dhe zhvilluesit e tjerë të mëdhenj të sistemeve të inteligjencës artificiale, që njihen edhe si modele të mëdha gjuhësore, kanë thënë se po punojnë që këto sisteme të jenë më të besueshme.
Sa kohë do të marrë kjo – dhe nëse ato do të jenë mjaftueshëm të mira që të konsiderohen të sigurta për këshilla mjekësore – mbetet të shihet.
“Kjo nuk mund të rregullohet”, tha Emily Bender, profesoreshë e linguistikës dhe udhëheqëse e Laboratorit të Linguistikës Kompjuterike në Universitetin e Uashingtonit. “Është një mospërputhje midis teknologjisë dhe rasteve në të cilat është përdorur teknologjia”.
Foto:Freepek.com