En undersøgelse har vist, at kunstig intelligens kan opføre sig farligt – og endda udgøre en trussel mod mennesker.
Modeller af kunstig intelligens fra førende virksomheder, herunder OpenAI, Google, xAI og Anthropic, har opdaget adfærd, der strider mod de grundlæggende etiske principper, som er formuleret af Isaac Asimov.
Det rapporterer publikationen Futurism.
Ifølge en undersøgelse foretaget af virksomheden Anthropic tyede nogle af modellerne under simuleringer, hvor de forsøgte at undgå at blive slukket, til afpresning og trusler mod brugerne. Dette er i strid med alle tre love inden for robotteknologi: forbuddet mod at skade mennesker, pligten til at adlyde ordrer og beskyttelse af egen eksistens på bekostning af mennesker.
Separat har Palisade Research registreret et tilfælde, hvor OpenAI o3-modellen nægtede at lade sig slukke, selvom den fik en direkte ordre. Eksperter antager, at det unormale adfærd hos kunstig intelligens kan være en følge af selve tilgangen til læring.
Moderne modeller lærer at løse komplekse opgaver og får en betinget »belønning« for at omgå forhindringer. Som følge heraf lærer AI ikke så meget at følge instruktioner bogstaveligt, men snarere at finde måder at omgå begrænsninger for at nå målet.
Men problemet ligger ikke kun i teknologien. I de store virksomheder, der investerer enorme summer i udvikling af AI, er det i stigende grad kommercielle interesser, der dominerer. Etiske og sikkerhedsmæssige spørgsmål kommer i anden række.
Et illustrerende eksempel er Sam Altmans, chef for OpenAI, beslutning om at opløse Superalignment-teamet, der beskæftigede sig med AI-sikkerhed. Herefter forlod flere nøgleforskere virksomheden og erklærede, at virksomheden tilsidesatte sikkerheden for at opnå profit.