Teknologiarekin sinbiosia duten izakiak gara
Teknologia disruptibo berriekin, botere publikoei pedagogia sozial garrantzitsua eskatu behar diegu, ezjakintasunak beldurra sortzen duelako eta beldur horrek ukatze erreakzioak eragiten dituelako. Mitologia asko dago, oso garrantzitsua da jendeak jakitea zer egiten ari diren Adimen Artifizialeko (IA) ikertzaileak.
Txetxu Ausín CSICeko Filosofia Institutuko zientzialari titularra da. “I Jornada sobre Inteligencia Artificial, ética y Legislación” ikastaroan parte hartu du. Bere hitzaldiaren oinarria da teknologiak interakzio guztiak zeharkatzen dituela. Teknologiekin sinbiosia duten izakiak gara. Telefono mugikorra gure luzapen fisiko eta kognitiboa da. "Adimen artifiziala pertsonen eta makinen arteko sinbiosian egiten da. Eta argi izan beharko genuke zeintzuk diren gure eskubideak eta askatasunak. Horri itun tekno-sozial berri bat deitzen diot, herritarrak, enpresak eta erakundeak inplikatu behar dituena. Teknologiak errotik aldatu ditu gure bizitzak.
IAren inguruan, segurtasunarekin, berdintasunaren sustapenarekin eta justiziarekin zerikusia duten hausnarketa etiko batzuk egin behar dira; izan ere, alderdi zailak mugatu behar dira, hala nola erantzukizuna esleitzea, giza eragileen eta makinen artean erabakiak hartzen diren heinean. «Pertsonen eskubide eta askatasunetan eragina izan dezaketen erabakiak dira, eta algoritmo batek baldintzatu ditzake. Ezin zaio utzi makinari erabakiak hartzen giza kontrolik gabe, osagarri bat baino ezin da izan. "Gizakiak sakatzen duen botoi gorri batek beti egon behar du"
Administrazioarekin, bankuekin, aseguruen munduarekin eta abarrekin ditugun harremanak gero eta automatizatuago daudenez, oso argi izan behar ditugu algoritmoak izan ditzakeen joerak. Teknologia orok gizartearen ikuspegi etikoarekin lerrokatu beharko liratekeen balioak ditu. "Algoritmoen garapenak zeregin anitza eta diziplina askotakoa izan behar du. Prozesu hori ezin da ingeniarien esku bakarrik utzi. IAk, datuetan alborapenak sartzeaz gain, horiek biderkatu eta ondorio negatibo handiagoak eragin ditzake. "Diseinu beretik, alborapenak eta beste kalte batzuk minimizatzen saiatuko diren irizpide etikoak txertatu behar dira. Enpresa teknologikoek interesa izan behar dute, horrek gizartearen onarpenean, teknologiarekiko konfiantzan eta jabetzean eragiten duelako. Horrek ez du esan nahi arduradun publikoen kontrol-erakundeak ere existitzen direnik".
Europako Batzordeak produktu horiek banatzeko eta merkaturatzeko hainbat arrisku-eremu eta kontrol-mekanismo deskribatu zituen berriki. 4 kategoria ezartzen ditu, "arrisku onartezinetik" hasi eta "gutxieneko arriskura" arte. Debekatu egiten du identifikazio biometrikoa espazio publikoetan, terrorismoa prebenitzea edo delitu larrien susmagarriak aurkitzeko izan ezik. "Europako Batzordea hausnarketa sakona egiten ari da, IAk balio jakin batzuekin lerrokatuta egon dadin. Txetxu Ausínek zionez, "Espainian leku publikoetan identifikazio biometriko masibo hori atzeratzea eskatu dugu, gehiegizko erabilerarik ez dagoela bermatzeko eta algoritmoak kontrolatuko direla bermatzeko, diskriminazio-kasuetan ez amaitzeko. "
"Injustizia algoritmikoa IAren erabilerak sor ditzakeen kalte eta ondorio negatibo guztietan datza"
IAko lanpostu garrantzitsuen % 25 soilik dago emakumeen esku. "IAren diseinuan eta garapenean dagoen genero-aldea oso argia da. Programatzaile gehienak gizonezkoak, zuriak eta mendebaldekoak dira.
IAren geopolitika
Hiru eredu daude: txinatarra, herritarren zaintzan eta kontrolean funtsa duena, puntuka neurtzeraino iristen dena; interneteko enpresa handiekin lotutako eredu libertario eta desarautu iparramerikar neoliberala. Eta herritarren, enpresen eta estatuen arteko itun tekno-sozial moduko batean oinarritutako Europako eredua, guztien onerako dena.
Europako Batzordeak proposatutako araudiak armak eta beste helburu militar batzuk (arma militar autonomoak, esaterako) maneiatzeko erabiltzen diren IAren sistemak alde batera uzten ditu. "Hori benetan beldurgarria da" aitortu zuen Txetxu Ausínek, eta esan zuenez, "ikerketa zientifikoaren mundutik badira ekimenak arma hilgarri autonomoak erabiltzeko debekua ezartzeko". "Autonomia" kontzeptua gehiegi erabiltzen da autoei buruzhitz egiterakoan. Azkenean ke-gortina bat da, azkenean gizakiak baitaude atzean; gidari gabeko ibilgailuak dira, nolabait telegidatuta daudenak. Horrelako artefaktuen garapenean debeku eta kontrol zorrotza eskatzen ari gara. Kasu honetan, armen erabileran adimen artifizialak izan dezakeen arrisku handietako bat da.
Mitologiak alde batera utzita, gatazka batean funtsezkoa izan daitekeena programen kontrola da. "Zibergerra egitura kritikoen kontrolean oinarrituko da. Oliobideen kontrolean- AEBko Colonial Pipeline kasu berrian bezala, aireportu eta ospitaleen kontrolean eta beste azpiegitura kritiko batzuenean ". Horregatik, erronka nagusia zibersegurtasunarena da, kaltea (eta ez gaizkia egitea) eragozteko beharezkoa ere izango litzatekeena.
Teknologiarekin sinbiosia dugun izakiak gara…
Sistema informatikoen eta gizakiaren nerbio-sistemaren arteko erlazioa existitzen da. "Gure gorputza plataforma teknologiko bihurtu da . Ez da teknologia inbaditzailerik behar, dagoeneko badaude zenbait patologiatan esku hartzeko mikrotxipak dituzten sendagai digitalak eta paseatzen ari garen bitartean datu kopuru handiak jasotzen dituzten eskumuturrekoak, bai eta beste "Wearables" batzuk ere (soinean izaten ditugun arropak eta gailuak, datu biometrikoak jasotzen dituztenak).
"Espektatiba izugarriak zabaltzen dira, baina baita arrisku handiak ere, gure neuroeskubide deritzonetzat. Horregatik gure pribatutasun mentala, osotasun kognitiboa eta jarraitutasun psikologikoa (gizabanakoak bere nortasunaz duen pertzepzioa) babestu behar dira. Gure askatasunaren eta kontzientziaren azken mugatzat hartu behar baitira"
Ordenagailuen eta pertsonen nerbio-sistemaren artean zuzenean gerta daitezkeen esku-hartze horietatik babestea da gure "autodeterminazio mentala". Ildo horretan, Rafael Yuste Columbiako Unibertsitateko BRAIN proiektuaren zuzendariak 5 neuroeskubiderentzako plataforma bat proposatu du: identitate pertsonala; aukera askea; pribatutasun mentala; garunaren hobekuntzarako eskubidea eta alborapenen aurkako babesa.
Arriskuak, hasiera batean, pazientearekin adostu gabeko aldaketak izan daitezke, edo hirugarrenek (burmuineko hackeatzaileak/brainhacking) esku-hartze maltzurrak egitea. Aukera horien aurka "zuhurtasun-baldintzak ezarri behar dira."
Kutxa Fundazioak Pro Data Gipuzkoa Ituna aurkeztu zuen ikerketa arloko hainbat eragilek egindako hausnarketen emaitza gisa: gizarte-zerbitzuek, elkarteek, enpresa teknologikoen ordezkariek eta biomedikuntzaren munduko ordezkariek. Azken hilabeteetan datuek eskaintzen dizkiguten aukerei buruzko akordioa da, baina erabilera sozialki arduratsua bilatzen duena. Teknologia horiek ulertu behar dira, oinarririk gabeko beldurrik ez izateko. Txetxu Ausínek, itunaren koordinatzaile gisa, hiru erronka azpimarratzen zituen: pedagogia, irizpide etikoak eta informazio ikaragarri hori partekatzea ahalbidetuko zuen plataforma bat sortzea. Hori datuak emateko, baina zertarako ematen diren jakinda eta guztion onerako direla jakinda. Datuen gaineko herritarren subiranotasuna ezartzea, dena menderatzen duten korporazio teknologiko handien feudalismoen aurrean.
Ikuspegi etikoa ez da aurrerapen zientifiko-teknikorako oztopo bat. Ikertzaileek eta gizarteak elkarlanean hausnartu behar dute garatzen ari diren aurrerapenei buruz eta haien erabilera etiko eta sozialki arduratsuari buruz.