Microsoft, Google och flera andra bolag har under senare tid prioriterat att lansera nya AI-tjänster, utan att tänka alltför mycket på de negativa konsekvenserna. Det påpekar flera experter.
Microsoft, som tillsammans med företaget Open AI ligger bakom Chat GPT, har till exempel sagt upp en grupp anställda som jobbar med ansvarsfull AI-utveckling.
EU planerar ändå att införa nya regler för att styra upp utvecklingen, och för att minska på olika slags risker för medborgarna. AI-experten Anna Felländer i Sverige välkomnar det här.
– Vi går in i ett skede där AI är mitt ibland oss. Det är en banbrytande teknik, såsom elektriciteten. Men själva lagstiftningen och det samhälleliga och etiska perspektivet har inte kommit i kapp.
Felländer berättar att AI-utvecklare hittills har saknat krav på att AI-koden ska vara ansvarsfull, och att det ska vara transparent.
– Det här att de har levt i ett silo utan den typ av övervakning och förhållningssätt som de behöver. Det innebär och kommer innebära legala och etiska övertramp.
När AI-chattbotar såsom Chat GPT ofta har fel så sprids det lättare desinformation. Botten kommer oftast inte med någon källhänvisning, och den kan inte själv uppskatta hur säkert det är att en viss information stämmer.
Det här är problematiskt i samband med många olika användningsområden.
– Till exempel i medicinska beslutsstödsystem så är det oerhört viktigt att man vet hur noggrant svaret är. Och det är ju ett problem om man inte tar hänsyn till att chattbotten kan ha fel, kommenterar Hedvig Kjellström.
Hon är professor i datavetenskap och forskar om AI vid Kungliga tekniska högskolan i Sverige.
Många fördelar för oss människor
Samtidigt som det finns risker så ser Hedvig Kjellström också många fördelar med de nya AI-verktygen.
Hon betonar att det är troligt att man inom den närmaste framtiden kommer att behöva använda sig av sådana verktyg för att vara konkurrenskraftig på arbetsmarknaden.
– Det är definitivt så att människor som har tillgång till och som är utbildade att använda sig av AI-system kommer att ha en fördel. Och det är något man måste fundera på hur man hanterar.
AI-utvecklaren Open AI, som ligger bakom chattboten Chat GPT, uppskattade nyligen att ungefär 80 procent av jobben i USA direkt kommer att påverkas av AI-chattbotar, så att de kan hjälpa till i åtminstone 10 procent av arbetsuppgifterna. I vissa jobb kan nyttan vara ännu större än i andra.
AI-system är överlag bra på att utföra rutinuppgifter
De två bandade intervjuer som gjordes för den här nyheten är till exempel transkriberade av ett datasäkert AI-verktyg som bygger på Open AI:s system Whisper. Det var ett första test och fungerade förvånansvärt väl, men det krävdes också manuell koll för att säkerställa att det blev rätt.
Kjellström betonar att AI-system överlag är bra på att utföra rutinuppgifter och bra på att dra slutsatser av en hel del data.
– Till exempel att se väldigt tidiga tecken på demens, alltså tidiga tecken i beteendet. Så man kan ha datorsystem som detekterar väldigt svaga mönster och tecken och sen som kan ge råd till en mänsklig läkare som tar mer, vad ska man säga, övergripande beslut som kräver att man väger in många faktorer.
Många upplever att AI-utvecklare har varit oförsiktiga i att lansera så kraftfulla AI-verktyg för allmänheten, utan att försäkra sig om att de fungerar ansvarsfullt. Kjellström tror ändå inte att företag har gjort det medvetet för att kunna håva in stora vinster.
– Jag tror att företagen har funderat väldigt mycket på riskerna. Men det är ju ganska oöverblickbart egentligen vilka samhällsutvecklingar som kommer att ske. Så jag tror att det har varit väldigt svårt att förutse vilka risker som kommer att kunna uppkomma.
Flera framstående personer föreslog nyligen att världen borde ta en paus på ett halvår när det gäller att utveckla AI-system som är mer avancerade än Chat GPT, för att det annars kan få okontrollerade följder, massvis med desinformation och många förlorade jobb.
Kjellström tycker inte att det är realistiskt att pausa utvecklingen.
– Om några ärliga aktörer bestämmer sig för att pausa sin utveckling, då pågår ju utvecklingen på andra ställen. Man uppnår ju inte det syftet man vill utan snarare tvärtom, att man hamnar på efterkälken i utvecklingen.
EU begränsar AI-användningen
Men både AI-utvecklare och organisationer som använder sig av AI-verktyg kommer så småningom att behöva följa regler kring AI.
EU-parlamentet ska nämligen inom de närmaste veckorna godkänna ett förslag till en ny AI-förordning. En förordning är alltså lagstiftning som sedan automatiskt börjar gälla i alla EU-medlemsländer. Tanken är att styra hur AI-system får användas och att sätta gränser för dem.
AI-användning som definieras ha hög risk är tillåten, men med restriktioner och krav
EU:s AI-regler kan bli lite av en global standard, hoppas lagstiftarna, och kan hjälpa till med att AI-systemen får en positiv inverkan på våra liv, och att det negativa minimeras.
Särskilt riskfyllda AI-tillämpningar ska bli förbjudna – till exempel ansiktsigenkänning på allmän plats, med bara några få undantag - till exempel om man letar efter ett försvunnet barn eller ska stoppa en terrorattack.
AI-användning som definieras ha hög risk är tillåten, men med restriktioner och krav - till exempel inom finans, infrastruktur, offentlig sektor, transport, säkerhet, utbildning, och rekrytering.
Och de AI-system som inte innebär någon risk eller bara liten risk får användas utan restriktioner.
Hedvid Kjellström är glad över att EU stiger in och reglerar.
– Jag ser det som väldigt positivt. Jag tror det är nödvändigt och jag tror att det är så man kan komma åt problemen med AI snarare än att ha ett tankeförbud om forskning inom AI.
Mycket att göra för att säkerställa att reglerna följs
Till följd av EU-reglerna kan organisationer som bryter mot dem behöva betala saftiga sanktionsavgifter – ett företag kan behöva betala 6 procent av sin årliga omsättning. Det är strängare än om man bryter mot EU:s dataskyddsförordning GDPR, då sanktionen maximalt kan vara 4 procent av omsättningen.
EU-reglerna har samtidigt också fått kritik. Det finns en del kryphål i den kommande lagstiftningen och den är dessutom ganska stel och inte lätt att anpassa till den snabba utvecklingen som sker på AI-området.
Många organisationer har ett stort arbete framför sig för att inte bryta mot lagstiftningen. Hur kan man se till att AI-användningen är tillräckligt ansvarsfull, och i vilka fall ska man låta bli att använda AI? Det är många frågor som organisationer kommer behöva tänka på.
Anna Felländer påpekar att det också ställer krav på de som utvecklar AI-system.
– Man väntar sig att innan man utvecklar AI så behöver sannolikt en människa vara inblandad i varje steg av utvecklingen, det vill säga design, inhämtning av data, träning, implementering och validering, för att översätta hur det här påverkar och eventuellt kan skada en medborgare eller en kund som använder den här tjänsten, säger hon.
Det går alltså att begränsa AI-systemen, trots att de ofta också beskrivs som en svart låda – att de fungerar, men att man inte vet hur.
– Det är ju inte sant att man inte vet hur de fungerar, det vet man ganska väl men däremot så är de så stora och sammansatta så att det uppstår effekter på grund av att det är så många komponenter som samverkar. Så det finns ganska mycket metodik för att inspektera hur AI-system fungerar, berättar professor Hedvig Kjellström.
Mer makt till medborgarna
Det kommande AI-regelverket kommer också att stärka EU-medborgarens möjlighet att ifrågasätta beslut som har fattats av AI, påpekar AI-experten Anna Felländer.
– Vi som konsumenter och medborgare får mer insikt och kan kräva förklarbarhet för ett beslut eller en prognos eller ett antagande som har gjorts av en AI-modell, säger Felländer.
Systemen kommer att bli mer och mer människolika
professor Hedvig Kjellström
Hedvig Kjellström ser samtidigt en risk med att reglera för mycket, och att det kan vara till skada för utvecklingen av bra AI-tjänster.
– Absolut. Det är ju en avvägning. Det är svårt att veta på förhand vad som är för mycket regler. Och för lite regler är det inte bra heller för då lämnar man för stort utrymme för oseriösa aktörer eller oetiska aktörer.
Kjellström är säker på att AI-utvecklingen kommer att fortsätta vara snabb under den närmaste framtiden. Många tjänster som förbättrar våra liv på olika sätt är att vänta, säger hon.
– Systemen kommer att bli mer och mer människolika i den meningen att de kommunicerar som oss människor. Sen tror jag vi kommer att se bättre system som stöder människor. Till exempel förarstöd i bilar kommer att bli bättre och bättre. Vi kommer att få mer stöd.
Många nya jobb väntas också uppstå inom AI-branschen. Det behövs till exempel personer som tränar AI, personer som övervakar AI, och personer som arbetar med att reglerna följs.