SAIDD 2023
I nyere tid er det stadig flere organisasjoner som gjør seg kjent med og implementerer Big Data og AI teknologier i sine digitale transformasjonsprosesser. Det mest verdifulle med digitalisering er at den fysiske verden transformeres ved forbedret produktivitet, innovasjon og innvirkning. Mulighetene med AI er mange, på tvers av forskning, økonomi og myndigheter. Gitt det betydelige transformasjonelle omfanget av AI, foreligger det potensial til å ha dyp innvirkning på økonomien, samtidig som den kan adressere regionale, nasjonale og globale utfordringer. Denne innvirkningen av AI er enda ikke realisert, og vil avhenge av betydelig forskning, utvikling, innovasjon og kommersiell innsats. For å realisere mulighetene med Big Data og AI teknologier, er det essensielt at forskningen og innovasjoner innen feltet støttes og at det bygges videre på allerede sterke aktører. Nye utfordringer og perspektiver krever ny teori, metodologi, god praksis, systemer, og det burde utvikles, deles og diskuteres blant flere relevante interessenter.
SAIDD 2023 ga ny innsikt og innføring i de nyeste trendene innen AI og datadrevet innovasjon. Symposiet var en arena for å utveksle kunnskap og erfaringer med andre fagpersoner og bedrifter som arbeider med AI, data og digitalisering i sin forskning og virksomhet. I løpet av de to dagene fikk man høre fra anerkjente nasjonale og internasjonale eksperter på området. Blant disse var direktør i TIB og leder for forskningsgruppen ved Leibniz Hannover: Sören Auer, professor i ingeniørfag og direktør for CASOS: Kathleen M. Carley, senior jurist for databeskyttelse for kunstig intelligens hos Mastercard: Jasmien Cèsar, professor i ansvarlig AI og programdirektør ved Umeå universitet: Virginia Dignum, professor i datavitenskap ved Scuola Normale Superiore i Pisa Italia: Fosca Giannotti, samt leder for forretningsutvikling hos Silo AI og tidligere direktør for Open AI Lab: Trym Holter.
Vi ønsker i dette innlegget å dele noe av innholdet vi fikk presentert av keynote speakers i løpet av SAIDD 2023.
Leveraging Cognitive Knowledge Graphs for Science and Economic Resilience
Presentert av Sören Auer (Director TIB, Head of research group Data Science og Digital Libraries, Leibniz Universitet Hannover).
Knowledge graphs, eller kunnskapsgrafer, er er en grafisk representasjon av en samling kunnskap og informasjon som organiseres på en måte som gjør det enkelt å utforske og hente ut nyttig innsikt. Kunnskapsgrafen består av en rekke noder som representerer forskjellige enheter eller begreper, samt “kanter” som representerer forholdet mellom enhetene. Kunnskapsgrafer anvendes ofte i forbindelse med AI og maskinlæring for å analysere store datamengder og trekke ut innsikt fra disse. De kan også brukes i søkemotorer og kunnskapsbaserte systemer for å kunne gi mer presise og relevante spørsmål og forespørsler.
Gjennom Sören Auers foredrag presenterte han konseptet med kognitive kunnskapsgrafer, som bruker rikere atomære basisenheter - graphlets as constituents. Dette refererer til en metode for å representere grafer ved å bryte dem ned i mindre og sammenhengende sub-grafer. Auer presenterer Open Research Knowledge Graph (https://orkg.org/) som et eksempel på bruk av kognitive kunnskapsgrafer som fletter sammen menneskelig og maskinell intelligens, for å kunne representere forskningsbidrag på en måte som gir sammenheng til forskningsdataene. Hvert forskningsbidrag blir gitt strukturert og standardisert beskrivelse for å kunne sammenligne og koble sammen ulike forskningsdata på tvers av felt.
Som et resultat, gir ORKG en digital infrastruktur som gjør det mulig for forskere og andre interessenter å få et bedre overblikk over millioner av publikasjoner og faglig innhold.
Social Cybersecurity: Synthesizing Social Science Theory, AI & Network Science to Support Social Engagement
Presentert av Kathleen M. Carley (Professor and Public Policy Department, Computer Science Department, and Social and Decision Sciences Department, Carnegie Mellon University. Director of the Center for Computational Analysis and Organizational Systems CASOS).
Sosial cybersikkerhet er en ny tverrfaglig samfunnsvitenskap som tar sikte på å karakterisere, forstå og forutsi cyber mediterte endringer i menneskelig oppførsel, og relaterte sosiale, kulturelle og politiske utfall. Begrepet cybermeditert referer til noe som skjer eller foregår gjennom eller ved bruk av datanettverk, internett eller digitale teknologier. Gjennom Kathleen Carleys foredrag legger hun frem ulike nøkkelutfordringer, her diskuterer hun blant annet ulike påvirkningsaktiviteter, desinformasjon, bots og “hate-speech”. Hun viste til flere empiriske resultater fra anvendelse av ny sosial cyber teknologi til områder som “COVID-19 responsen”, gjenåpningen av Amerika, valget på Philippinene og andre verdensbegivenheter. I forbindelse med resultatene, henvises det til de nye Behavioural, Economic, Network, Deterence (BEND) rammeverket, som samlet er en strukturert tilnærming for å analysere, vurdere og respondere på påvirkningskampanjer ved å vurdere atferdsmessige, økonomiske, nettverksmessige og avskrekkende faktorer. Carley går inn på den analytiske prosessen som er nødvendig for å operasjonalisere dette, samt rollen til AI og nettverksvitenskap. Det presenteres viktige innsikter angående styrker og begrensninger ved bruk av AI for sosial cybersikkerhet.
Carleys forskning kombinerer kognitiv vitenskap, sosiale nettverk og datavitenskap for å adressere komplekse sosiale og organisasjonelle problemer. Carley og hennes forskningsteam har utviklet infrastruktur verktøy for å analysere storskala dynamiske nettverk og ulike multiagent simuleringssystemer. Et multi-agent simuleringssystem er et dataprogram eller en modell som gjenskaper og simulerer interaksjoner mellom flere agenter i en virtuell verden eller et simulert miljø. Hver agent i systemet er en autonom enhet som har evnen til å oppfatte og reagere på miljøet og andre agenter i henhold til visse regler og mål. Hennes presentasjon avsluttes med en beskrivelse av områder der fremtidig forskning vil være nødvendig for å støtte sosial interaksjon og hemme skadelig online aktivitet.
AI Regulatory Developments: Deep Dive on the EU AI Act
Presentert av Jasmien César (Senior Counsel of Privacy and Data Protection for AI at Mastercard).
I april 2021 kom Europakommisjonen med et lovforslag med formål om å regulere utviklingen og bruk av kunstig intelligens i EU. Lovforslaget inneholder bestemmelser som vil beskytte menneskerettigheter og personvern, men samtidig fremme vekst og utviklingen innen kunstig intelligens. Lovforslaget er en del av EUs bredere digitale strategi, som sikrer at teknologien brukes på en ansvarlig måte, men samtidig sikrer at Europa vil forbli konkurransedyktig innenfor feltet. AI-programvaren må være sterk og resistent mot cyberangrep, og dataen som anvendes må være av høy kvalitet. AI systemer som anvendes må også være registrert i offentlige databaser i EU.
César presenterte også risikovurderinger av AI gjort av EU. Hun deler risikoen i fire: uakseptabel risiko, høy risiko, transparency risk og minimal/ingen risiko. Sosial poengscore, poengscore til enkeltpersoners atferd og aktiviteter på nettet, falt under uakseptabel risiko. Dette vil dermed være forbudt i henhold til EU AI Act. Under høy risiko listet hun blant annet biometrisk identifikasjon og bruk av AI i ansettelsesprosesser. Disse anvendelsesområdene vil ikke være forbudt, men sterkt regulert av lov. Under transparency risk falt chatbots og deep fakes. Chatbots, som https://openai.com/blog/chatgpt, vil i forbindelse med EU AI Act være pliktet til å opplyse offentligheten og brukerne om at det kommuniseres med en bot og at det anvendes AI.. Bruksområder som er definert til minimal/ingen risiko, vil ikke være regulerte av EU.
Responsible Artificial Intelligence: An inclusive Road Ahead
Presentert av Virginia Dignum (Wallenberg Chair, Professor Responsible Artificial Intelligence, Program Director WASP-HS, Department of Computing Science, Umeå University).
Kunstig Intelligens (AI) har et stort potensial når det kommer til tilføring av nøyaktighet, effektivitet, kostnadsbesparelser og hastighet til en hel rekke menneskelige aktiviteter, og samtidig gi nye innsikter i oppførsel og kognisjon. Det er store positive fordeler som vil være fordelaktig i dagens samfunn. Likevel er det mange som er skeptiske til utviklingen og implementeringen. Måten AI er utviklet og implementert sier mye om hvordan tjenesten vil påvirke våre liv og samfunn. Et eksempel er at automatiserte klassifiseringssystemer har ved flere anledninger levert fordomsfulle resultater, derfor stilles det spørsmål om personvern og forutinntatthet. AIs innvirkning gjelder ikke bare forskning og utvikling, men også hvordan disse systemene introduseres i samfunnet og brukes i hverdagslige situasjoner. Det er nå en stor pågående debatt, som handler om hvordan bruken av AI vil påvirke arbeid, velvære, sosiale interaksjoner, helse, inntektsfordeling og andre sosiale områder. Håndteringen av disse utfordringene krever at etiske, juridiske, samfunnsmessige og økonomiske implikasjoner tas i betraktning.
I foredraget diskuterte Virginia Digum hvordan en ansvarlig fremgangsmåte for utvikling og bruk av AI, kan oppnås og hvordan nåværende fremgangsmåter for å forsikre etisk justering av beslutninger utført eller støttet av AI-systemer kan dra nytte av sosiale perspektivet innebygd i feministiske og ikke-vestlige filosofier, spesielt Ubuntu-filosofien. Denne filosofien vektlegger menneskelig fellesskap, samarbeid og etiske verdier, og har tidligere blitt brukt for en inspirasjon for forskningsarbeidet etter apartheid i Sør-Afrika og er idag en del av den nasjonale kulturarven i landet.
eXplainable AI (XAI) a Basic Break Towards Synergistic Human-Machine Interaction and Collaboration
Presentert av Fosca Gianotti (Professor of Computer Science at Scuola Normale Superiore, Pisa & Associate at the Information Science and Technology Institute “A Faedo” of CNR, Pisa, Italy).
Gianotti presenterte litteratur og arbeid innenfor XAI (forklarende AI). Hun mener at fremtiden for AI ligger i å muliggjøre samarbeidet mellom menneske og maskin for å løse komplekse problemer. For å få dette til, kreves det klarhet, tillit og forståelse. XAI vil gjøre beslutningsprosessen og resultatene forståelige for mennesker, som er avgjørende i beslutningsprosesser med høy risiko. Tradisjonelt bruker AI “black boxes”, som gjør at man får en beslutning, uten forklaring av bakgrunnen for beslutningen. Gjennom XAI får man økt gjennomsiktighet, ved at mennesker får opplyst hvordan en beslutning ble tatt, og tillater dermed brukerne å vurdere og validere beslutningen. Dette kan bidra til å korrigere feil som bidrar til feilaktige beslutninger. Gianotti presenterte “Dr. House metoden”, som refererer til en systematisk tilnærming for å diagnostisere årsakene til en beslutning tatt av en AI-modell.
The State of AI in the Nordic Region
Presentert av Trym Holter (Business Development Executive, Silo AI & Former Director, Norwegian Open AI Lab).
Trym Holter diskuterer den nåværende situasjonen for AI i den nordiske regionen. Fokuset er primært på implementeringen av AI teknologier i private og offentlige sektorer. Holter trekker frem viktige barrierer og muligheter for videre utvikling av AI-baserte produkter og tjenester. I tillegg trekker han frem viktigheten av økte investeringer i forskning og utvikling av AI. Han presenterte tall som viste til at bare ¼ av selskaper vil investere mer enn 20% av FoU-budsjettet i AI. Han presiserte også at en tendens i nordiske land er at det er vanskelig å komme forbi fasen med konseptutprøving, og at én av de største barrierene er å få tak i nok talent og kunnskap.
Verdiene som deles mellom de nordiske landene hevdes ofte å bidra til å gjøre regionen til en av de mest innovative og konkurransedyktige i verden. Selv om de nordiske landene er forløpere i AI beredskap, etikk og troverdighet, er regionen fortsatt i et tidlig stadium når det kommer til å implementere AI teknologier i produkter og tjenester. Klarere strategier og sterkere samarbeid etterlyses jevnlig. De nordiske myndighetene har varierende investeringer og strategier for å akselerere bruken av AI.
Takk til Norsk Forskningsråd og Vestlandsforskning for invitasjon til å delta på konferansen. Om du har noen spørsmål eller vil høre mer, kan du ta kontakt med oss.