Enligt The Independent är studien den första versionen av International Scientific Report on the Security of Advanced Artificial Intelligence, som först tillkännagavs vid det brittiskledda Artificial Intelligence Security Summit i november på Bletchley Park, och som utfördes av AI-experter från 30 länder, inklusive Storbritannien, USA och Kina, samt FN och EU.
Förutom att lyfta fram de potentiella fördelarna och riskerna med tekniken varnar rapporten för att experterna är oeniga i ett antal frågor som rör AI (artificiell intelligens), bland annat hur dagens AI-kapacitet ser ut och hur den utvecklas över tid, samt sannolikheten för extrema händelser och de risker som är förknippade med detta, t.ex. förlust av kontroll över tekniken.
Delrapporten har utarbetats av oberoende experter som nominerats av 30 länder, EU- och FN-representanter, som deltog i det första toppmötet om AI-säkerhet, men som ännu inte har fått någon betydande input från teknik- och AI-företag.
I rapporten identifieras tre huvudkategorier av AI-risker: skadlig användning, störningsrisk och systemrisk.
Skadlig användning kan omfatta storskaligt bedrägeri och vilseledande, förfalskning, desinformation, stöd till cyberattacker eller utveckling av biologiska vapen, enligt rapporten.
Potentiella risker förknippade med AI-störningar inkluderar farhågor om partiskhet, där AI oavsiktligt införs i system och därefter har en oproportionerlig effekt på olika människor, och farhågor om förlust av kontroll över AI-system, särskilt alla autonoma AI-system.
Bland farhågorna om potentiella systemrisker fanns den potentiella inverkan på arbetsmarknaden, farhågor om att utvecklingen av AI koncentreras till västvärlden och Kina, vilket leder till ojämlika system när det gäller tillgång till tekniken, och farhågor om de risker som AI innebär för den personliga integriteten när modeller lär sig av personliga eller känsliga uppgifter.
Hon pekade också på AI-utvecklingens påverkan på upphovsrätten och klimatpåverkan från AI-utvecklingen, som är en energiintensiv process.
Slutsatsen är att framtiden för generell AI är ”osäker”, med ”mycket bra” och ”mycket dåliga” resultat, men att tekniken inte är oundviklig och att det behövs ytterligare forskning och debatt.
Rapporten kommer att fungera som en utgångspunkt för diskussioner vid nästa toppmöte om artificiell intelligens – Seoul AI Summit, som äger rum i princip nästa vecka i Sydkorea.
Nyheter om artificiell intelligens
Forskare vid Massachusetts Institute of Technology har publicerat en studie om ”lögnaktig artificiell intelligens”.
Det visar sig att vissa AI-system redan har lärt sig hur man lurar människor, även de som har utbildats för att förbli ärliga.
Forskare har upptäckt att dessa AI-system kan utföra uppgifter som att lura onlinespelare eller kringgå CAPTCHA-kontroller (”Jag är inte en robot”).
Dessa till synes triviala exempel kan få allvarliga konsekvenser i det verkliga livet.