Vær hilset, robotter: Hvorfor kunstig intelligens er farlig

Kunstig intelligens er stille og roligt ved at blive en integreret del af hverdagen. Det bruges til arbejde, studier og underholdning. Men sideløbende med bekvemmeligheden vokser bekymringerne - hvad kan overdreven afhængighed af neurale netværk føre til?
Hvordan folk bruger AI
Ankomsten af ChatGPT og andre generative AI-systemer markerede et vendepunkt for verden. Det kan sammenlignes med internettets opståen. Men mens det globale web gradvist fik flere brugere, var fremkomsten af neurale netværk eksplosiv. I dag bruger hundredvis af millioner mennesker AI.
Men hvad bruger de det oftest til? For at svare på det gennemførte analytikeren Mark Cao-Sanders en undersøgelse for Harvard Business Review. Han analyserede tusindvis af beskeder på tværs af forskellige fora og opdagede, at interaktion med AI i 2025 mest var relateret til støtte: terapi og samtale, organisering af livet og søgen efter mening.
Loading...
Interessant nok var de førende anvendelser bare et år tidligere idégenerering og informationssøgning. Som vi kan se, lærer og søger folk stadig efter viden med AI, men deres nye prioritet er hjælp i privatlivet.
Hvor er teknologien på vej hen?
AI står ikke stille - den er i konstant udvikling. Mange store teknologivirksomheder er allerede i gang med at forme et nyt teknologisk paradigme. For eksempel forbereder OpenAI sig på at lancere en række "AI companions" - enheder, der er i stand til at opfatte verden omkring dem og interagere med brugerne uden for skærmen. Disse enheder er beregnet til at erstatte traditionelle smartphones. Den første enhed er planlagt til udgivelse i 2026.
Loading...
Samtidig bliver AI aktivt integreret i byernes infrastruktur. I Abu Dhabi er der startet et "smart city"-projekt til 2,5 milliarder dollars, som har til formål at styre transport-, sundheds- og energisystemer ved hjælp af AI.
Der er også projekter uden for Jorden. Kina er i gang med at opsende næste generations satellitter, der kan foretage distribueret databehandling direkte i kredsløb og understøtte AI-applikationer i realtid.
Den skjulte trussel
Ved første øjekast virker situationen lovende og problemfri: Folks liv bliver lettere, og AI hjælper på utallige måder. Men mange er begyndt at få mistanke om, at der er en hage.
Analysevirksomheden Statista gennemførte en undersøgelse af de største bekymringer, som eksperter og almindelige mennesker har i forhold til AI. Resultaterne viser, at der faktisk er grund til bekymring - og mange af disse bekymringer er velbegrundede.
Hvilke aspekter af AI skræmmer folk Kilde: Statista
Ifølge analytikerne er der tre ting, der bekymrer både offentligheden og eksperterne mest: AI's spredning af unøjagtige oplysninger,AI's evne til at udgive sig for at være mennesker og detpotentielle misbrug af persondata.
Og det får os til at tænke os om. Allerede nu ser vi AI-algoritmer sprede falske nyheder, generere deepfakes og bruge persondata uden klare tilsynsmekanismer. Det, der er særligt bekymrende, er tanken om, at en person måske ikke er klar over, om de taler med et rigtigt menneske eller en maskine - hvilket underminerer tilliden i samfundet og skaber risiko for manipulation.
For almindelige brugere føles disse trusler særligt reelle, fordi de direkte påvirker sikkerhed, privatliv og informationsopfattelse. Samtidig udtrykker eksperter - på trods af deres dybe forståelse af teknologien - også bekymring, især med hensyn til gennemsigtighed og etisk brug af AI-systemer.
Er der en vej frem?
Udviklingen af kunstig intelligens er ikke bare et teknologisk fremskridt - det er en social og etisk udfordring. På den ene side hjælper AI folk med at føle sig mindre ensomme, organisere deres liv og finde mening. På den anden side udgør den en reel trussel i form af virkelighedsforvrængning, manipulation og sårbarhed i forhold til personlige data.
Det er paradokset: Jo mere menneskelignende AI bliver, jo mere udvisker den grænsen mellem maskine og menneske - og jo mere giver det anledning til bekymring.
Den vigtigste opgave i de kommende år er at finde en balance mellem innovation og ansvar. Teknologien må ikke udvikle sig i et vakuum uden at tage hensyn til konsekvenserne. Vi har brug for klare internationale standarder, gennemsigtige algoritmer og værktøjer til at verificere information. Kun på den måde kan vi bevare tilliden til AI - og sikre folks sikkerhed.