Duela aste pare bat, Googleko ingeniari bati (Blake Lemoine) atseden derrigorrezkoa eman zioten enpresan, bere eginkizunetako batean tratatzen zuen LaMDA delako makina edo programa adimentsua izateaz gain, kontzientziaz jabetua zegoela sinesteagatik (albistea Berrian). Turing-en testean lartxo sinesteagatik gertatu zaio: makina baten elkarrizketa gizaki batenarengandik ez bada desberdintzen, makina kontziente eta adimentsua delako froga omen. Turingen testa zaharkitua dago, hori da kontua, eta azaltzen saiatuko gara.
LaMDA Language Model for Dialogue Applications terminoaren laburpena da, Elkarrizketa aplikazioetarako hizkuntza modeloa. Dall-e, Parti edo Craiyon irudi sorkuntzara bideratutako adimen artifizialeko tresnak diren bezala, honetan testu sorkuntza da gakoa. Halako baten adibidea eman genuen Sustatun, OpenAI GPT3 tresnarekin egindako aprobak tratatu genituenean.
Irudiz zein testuz, adimen artifizialeko sistema hauek gure input-a behar dute oraingoz, eta ingelesezko input edo testy sarrerarekin bdabiltza. Testu bat proposatu, eta Dallek marraztu egiten du. Testu bera, edo nahi bada, galdera bat formulatu, eta GPT3k edo LaMDA erantzun egiten dute, eta hortik elkarrizketa bat jarraitzen da. Txatbot aurreratuak dira, alegia.
Lemoinek halako elkarrizketa lartxo izan zituen LaMDArekin, tresnak kontzientzia eta sentipen propioa zuela ondorioztatzeko. Horretaz komentzitua, Googleko bere nagusiei jakinarazi zien kontua, eta haiek oporrak eman dizkiote. Harrezkero, elkarrizketak eman ditu Lemoinek esanez, besteak beste, uste duela LaMDA "lankidetzat" duela eta, datu zehatz jakin bat baino gehiago, bere sentipen erliosoek eraman dutela ondorioztatzera makinaren kontzientzia gaitasuna.
Kontua da, ez bakarrik Lemoine gizakiak dioela kontzientzia duela LaMDAk: makinari berari galdetu zion ingeniariak, ea kontziente zen, eta LaMDAk baietz erantzun. Aurreraxeago, abokatu bat ere eskatu omen zuen.
Posible ote? Gillermo Roa Elhuyarkoak Norteko Ferrokarrilean esandakoarekin geratzen gara gu: "Kontzientzia balu bezala hitz egiten ikasi du". Hori da koxka. Artikulu honetan (eta beste honetan), ikerlari eta bereziki hizkuntzalarien iritzi sorta bildu dute, eta hizkuntzaren maisutasunean dago gakoa. Txatbot-en teknologian hainbeste aurreratu da diskurtso gramatikoki zuzen eta semantikoki koherenteak egiten, non kontzientzia adimentsuarentzako test klasikoa, Turing-en testa, zaharkitua geratu den.
Alan Turing zientzialariaren proposamena izan zen bere testa, 1950ean formulatua. Laburki zera da kontua, epaile batek galderak egiten ditu, eta erantzunak jaso, jakin gabe makina batekin edo gizaki batekin ari den, eta elkarrizketa batean ezin badu ebatzi makina dela beste aldean duena, orduan makina hori adimentsua edo kontzientziaduna da. Kontua da test honen balioa, Wikipediako orriak berak gogoratzen digunez, aspaldi dagoela baliogabetua: 1966an jada, esaldi idatzien interakzioan trebatutako ELIZA delako softwareak zenbait pertsona engainatu zituen, elkarrizketa ustez zentzuzko eta pertsonalak osatuz, harekin ari zirenak pertsona bat zela ondorioztatu arte.
Orain gertatu dena antzekoa da, baina ingeniari batekin, eta txatbot askoz aurreratuagoarekin.
Alan Turingen merituak ezin ukatuzkoak dira (matematiketan, konputazioan), eta jasan zuen tratua (homosexuala izateagatik) ez ahanztekoa. Baina adimena/kontzientzia identifikatzeko bere testa zaharkitua dago, eta elkarrizketa batean pertsona batek izan dezakeen inpresioaz aparteko beste irizpide batzuk behar ditugu. Noski, ez da Turingen errua 1950ean hurbilpen haren okerra ez aurrikusi izana; izan ere, besteak beste berari esker abiatutako iraultza konputazionala noraino irits zitekeen nekez aurreikus zezakeen.
Agian kontu hau azalduko da UEUko Informatika eta Filosofia atalek etzi, uztailak 1, antolaturiko adimen artidizialari buruzko jardunaldi interesgarriak. Adi bertara zoaztenok, gai mamitsuak izango dira tartean.
Artikuluko irudia, Craiyon bidez sortu dugu: ingeniari bat elkarrizketan adimen artifizial kontzientre eta sentikor batekin.
Erantzun
Sartu