Er åpent brev mot kunstig intelligens bare et markedsføringsgrep?

Kritiserer åpent brev som foreslår å sette utviklingen av kunstig intelligens på pause.

Eksperter på kunstig intelligens svarer med krass kritikk etter å ha blitt omtalt i det åpne brevet som ber om pause i utviklingen av kunstig intelligens. Brevet som ble publisert 22. mars hadde søndag nesten 3000 underskrifter.

Det åpne brevet ber om at verden tar en pust i bakken og setter videre utvikling av kunstig intelligens kraftigere enn GPT-4, på pause. Men kritikere av oppropet mener at brevet har feil fokus.

Bidrar til hype

Brevet omtaler apokalyptiske scenarioer, mens kritikere mener at mer «realistiske» utfordringer med kunstig intelligens, som rasisme, sexisme og desinformasjon, burde være omtalt. Brevet kritiserer den tilsynelatende uforsiktige lanseringen av store språkmodeller, men bygger samtidig opp under modellenes evner og skildrer dem som mye kraftigere enn de egentlig er. Dette bidrar til hype rundt de mest populære språkmodellene og fremstiller skaperne som oppfinnere av teknologi som kan sammenlignes med boktrykkerkunsten.

Er det ikke suspekt at mange av de prominente profilene som har skrevet under, selv er med på å utvikle kunstig intelligens? Selv OpenAIs CEO Sam Altman har skrevet under.

Det er lett å la seg imponere av ChatGPT, men den tenker ikke på egenhånd. Den genererer uttalelser som høres plausible ut, men er ikke trent til å fortelle sannheten. På sett og vis er den en stor kopimaskin. En vanvittig avansert en, må vite. Teknologien er heller ikke ny. Det som gjør GPT-3.5 og 4, er den vanvittige mengden data modellen er trent på. Det enorme modellen er muliggjort av de siste års avansering i regnekraft og raske lagring.

Men Chatgpt står ikke opp om natten og legger en plan for hvordan den skal utslette menneskeheten, slik Future of Life Institute advarer om.

Les saken her: Elon Musk, Yuval Noah Harari og flere ber om halvt års pause i utviklingen av kunstig intelligens

Professor svarer

I en artikkel på Medium skriver Emily M. Bender, professor i lingvistikk ved universitetet i Washington, at verdens myndigheter ikke bør kaste bort tiden på gira teknerders våte drømmer. Hun mener hypen er fullstendig overdrevet. Selv vil hun faktisk ikke en gang kalle store språkmodeller for kunstig intelligens. Det modellene gjør er å spille et slags ordspill, der den gjetter seg frem til hva som er neste mest plausible ord. Med statistikk. De tenker ikke selv. Og de vet ikke hva ordene betyr. Selv om enkelte hevder det motsatte.

Hør istedet på de som studerer hvordan selskaper (og myndigheter) bruker teknologi (og narrativene knyttet til kunstig intelligens), til å konsentrere og bruke makt.

Emily M. Bender

Emily M. Bender er en av forfatterne bak «On the Dangers of Stochastic Parrots» som refereres til i det åpne brevet. I forskningsartikkelen undersøker forfatterne hvilke risikoer det ligger i å utvikle avanserte språkmodeller og hvordan man kommer slike farer i møte.

Kunstig intelligens må taes på alvor

Sayash Kapoor og Arvind Narayanan skriver i en artikkel på AI Snake Oil, at en pause i utviklingen av mer avanserte modeller enn GPT-4, ikke påvirker modellene som allerede er lansert.

Les mer

Istedet burde fokus ligge på utfordringene vi allerede møter. Som for eksempel at MidJourney og Dall-e remixer kunst uten å gi noe tilbake til kunstnerne. Man kunne skattelegge slike modeller og gi penger tilbake til opphavsmenn, men politisk vilje til regulering mangler. Bortsett fra i Italia, der datatilsynet har valgt å midlertidig stenge ChatGPT.

Er ChatGPT bevisst?

Brevet presenterer ifølge kritikerne en spekulativ, fremtidig risiko, og ignorerer problemene som allerede skader. Det distraherer fra de virkelige problemene og gjør det til og med vanskeligere å adressere dem. Hvorvidt GPT-4 nærmer seg generell kunstig intelligens strides de lærde om. Det er stor usikkerhet rundt hva store språkmodeller egentlig kan få til, selv blant de som forsker på slikt. Enkelte mener de har store begrensninger, mens andre tror de ser tegn til bevissthet i GPT-4.

Men bevissthet er et vagt begrep og vanskelig å gjøre eksterne observasjoner av. Den eneste som noen gang kan vite om en fremtidig datamaskin er bevisst, er maskinen selv. Akkurat som hver og en av oss har unik tilgang på vår egen subjektive opplevelse. Uansett hvor mange Turing-tester vi måtte bestå.

Ansvarlig redaktør: Ole Magnus Kinapel.
Ta kontakt på desk(at)teknokratiet.no
© 2023 Teknokratiet.