672422310

Kunstig intelligens og personvern – et komplekst landskap

Mens kunstig intelligens (KI) gir oss utrolige muligheter, står vi også overfor utfordringer når det gjelder personvern. KI-algoritmer lærer av store mengder data, inkludert sensitive personopplysninger, og dette kan true brukernes personvern.

Denne artikkelen tar opp diskusjonen om hvordan vi kan sikre personvern i møte med KI, samtidig som vi nyttiggjør oss teknologiens potensial. Fra bekymringer rundt dataeksponering til juridiske og etiske implikasjoner, vi utforsker veien mot en balanse mellom innovasjon og personvern i den stadig mer digitale verdenen vi lever i.

Vi lever i en tid hvor Kunstig Intelligens (KI) er på sterk fremmarsj og med dette kommer også diskusjoner og refleksjoner rundt hvordan vi interagerer med teknologi med hensyn til personvern. Det er ingen tvil om at kunstig intelligens kan gjøre personlig data mer eksponert samtidig som det kan bidra til å beskytte dem.

De aller fleste algoritmene som brukes innen KI-modeller i dag vil lære ut fra all data som blir innført til den under opptreningsfasen for å kunne forutsi resultater: jo mer mengde av treningsdata desto bedre blir resultatet. Bak en såpass intelligent KI-modell som Chat GPT for eksempel, ligger det altså mye data fra millioner av ulike personer, inkludert sensitive personopplysninger. Det er denne enorme mengden data som gjør programvaren så dyktig, men skyggesiden er at personvernet til brukerne ikke er tilstrekkelig beskyttet. Dette kan føre til at sensitiv informasjon kommer på avveie og dermed at slik informasjon blir misbrukt på ulike måter.

Hvis personopplysninger kommer på avveie vil de kunne spres ubegrenset videre uten ditt samtykke eller sensitiv informasjon kan brukes for å få tilgang til dine digitale plattformer og kontoer, og dermed også få potensiell tilgang til flere persondata. Ettersom at enkelte KI-modeller bygger på statistikk over personopplysning, for eksempel økonomi, juridisk fortid, kjønn, alder og nasjonalitet, vil de ved bruk i beslutningsprosesser kunne tolkes diskriminerende ettersom at systemet vil være partisk eller biased, og den vil dermed ikke ta hensyn til individets særegne situasjon og egenskaper.

I dagens digitaliserte verden står personvern høyt på agendaen både på individuelt og statlig nivå. På grunn av bekymring rundt personvern er KI-modeller som Chat GPT blitt kritisert av mange. Et eksempel på et land som har tatt grep for å sikre innbyggernes personvern i møte med KI er Italia. Etaten for personvern i dette landet (Garante per la protezione dei Dati Personali) innførte i år tiltak for å sikre at OpenAI (selskapen bak Chat GPT) ikke kunne bruke sine tjenester i landet, da modellene som Chat GPT er basert på personopplysningene til millioner av italienerne. Dette tiltaket kan ha noe for seg ifølge Tobias Judin, seksjonsleder for internasjonal avdeling hos Datatilsynet, som påpeker at det vil være høyst problematisk om modeller som Chat GPT har brukt hvilken som helst eksisterende data på internett som den kunne finne, inkludert persondata.

Ikke bare Italia har reagert, også en rekke andre land og ikke minst EU har gjort tiltak, innført lover og utført risikovurderinger. Sistnevnte handler som å vurdere i hvilken grad KI-modeller utgjør en etisk og juridisk risiko for samfunnet. Dette innebærer ikke bare at programvarer som Chat GPT er under lupen, men også måten man driver business på når det gjelder store data (Big Data). De som jobber med, for eksempel, maskinlæring må dermed tilpasse seg den nye virkeligheten, og dette kan medføre at utvikling av maskinlæringsmodeller ikke kan gjøres like effektivt som før. Selv om det innføres juridiske begrensninger, vil utviklingen av kunstig intelligens fortsette. De nye lovene innebærer at utviklere nå må trene sine modeller på en mer etisk måte, og at teknologiske bedrifter følger den europeiske lovbestemmelsen om personvern (GDPR).

Utfordringen fremover vil dermed bli å finne en balansegang mellom god etikk og sikkerhet versus innovasjon og utvikling for å skape et best mulig landskap for møtet mellom kunstig intelligens og personvern.

Caroline Haglund

Lunner kommune tar i bruk KI for smartere avløpsrensing

Lunner kommune tester ny teknologi ved Harestua og Volla renseanlegg. Ved hjelp av kunstig intelligens skal avløpsvann renses med mindre kjemikaler, samtidig som driften effektiviseres og kostnader kuttes.

AQ7290-seriens optiske tidsdomenereflektometer.

Nytt OTDR fra Yokogawa

Yokogawa Test & Measurement Corporation lanserer AQ7290-serien, et svært pålitelig og nøyaktig felttestinstrument for optisk fiber som vil lette konstruksjonen og vedlikeholdet av raskt voksende optiske kommunikasjonsnettverk. AQ7290 er utstyrt med nye funksjoner som forbedrer betjening og brukervennlighet. Seks standard- og høyytelsesmodeller er tilgjengelige i serien, og tilbyr et utvalg av to eller tre bølgelengder for å dekke et bredt spekter av fiberoptiske installasjons- og vedlikeholdsmålingsbehov.

Siemens

Nytt generativt AI-drevet vedlikeholdstilbud fra Siemens

Siemens Industrial Copilot, en generativ AI-basert assistent, styrker hele verdikjeden – fra design og planlegging til engineering, drift og tjenester. Med dette ekspanderer Siemens sitt Industrial Copilot-tilbud med utvidede muligheter for Senseye Predictive Maintenance. Den generative AI-drevne løsningen vil støtte alle trinn i vedlikeholdssyklusen, fra reparasjon og forebygging til prediksjon og optimalisering.

Endress+Hauser

Solid fremgang for Endress+Hauser tross global uro: Satser tungt på innovasjon og gassanalyse

Til tross for krevende globale rammevilkår leverte Endress+Hauser et sterkt resultat i 2024, med økt satsing på gassanalyse, bærekraft og opplæring.