Elon Musk, Yuval Noah Harari og flere ber om halvt års pause i utviklingen av kunstig intelligens

Ber om pause i utviklingen av kunstig intelligens.

I et åpent brev fra Future of Life Institute, ber forfatterne om en pause i utviklingen av kunstig intelligens. De 1100 som har signert oppropet inkluderer Elon Musk, Steve Wozniak, Yuval Noah Harari, Max Tegmark, Andrew Yang, Stuart Russel og Sam Altman, CEO i OpenAI.

Kunstig intelligens begynner å bli så avansert at den kommer i konkurranse med mennesker i flere generelle oppgaver. Det utgjør en fundamental risiko for samfunn og menneskeheten, heter det i brevet. Nå ber tekledere, professorer og vitenskapsmenn over hele verden om minst et halvt års pause i utviklingen, til man har utviklet en felles protokoll for hva KI kan og ikke kan gjøre.

Les også: Ray Kurzweil tror vi oppnår udødelighet innen 7 år

I brevet med tittelen «Sett enorme KI-eksperimenter på pause: Et åpent brev», stiller man seg spørsmål om vi ønsker å la maskiner oversvømme informasjonskanalene våre med propaganda og usannheter. Burde vi utvikle ikke-menneskelige hjerner som kan bli smartere enn oss og som kan gjøre oss overflødige?

Allerede har GPT-4 vist seg å være så smart at den kan ta over mange menneskelige oppgaver. Den kan også brukes i finansverden, til jus, programmering og for de med litt fantasi, kan man bruke den til å tjene penger. På universitetene er det vanskelig å vite hva som er skrevet av studentene og hva som er skrevet av KI. På Amazon florerer det allerede med bøker der medforfatteren er ChatGPT. GPT-4 har også bestått en rekke amerikanske eksamener. Det er lite tvil om at slike systemer vil forstyrre ikke bare samfunnet, men også økonomien.

Burde vi risikere å miste kontroll over sivilisasjonen?

Brevet kommer to uker etter lanseringen av GPT-4. Språkmodellen er iferd med å snu opp ned på verden, med sine allment tilgjengelige ferdigheter. Og selv sjefen for OpenAI, selskapet bak GPT og Dall-e, har signert brevet. Han mener at utviklingen av maskinlæring-modeller som er kraftigere enn GPT-4, bør settes på pause.

Brevet understreker at spørsmålene over, ikke bør overlates til uvalgte tekledere:

Kraftige KI-systemer bør kun utvikles når vi er sikre på at effektene blir positive og når risikoen er håndterbar.

Pause Giant AI Experiments: An Open Letter

Sikre en god fremtid

I et brev på Open AIs egne nettsider skriver CEO Sam Altman at generell kunstig intelligens er et fantastiske verktøy med seriøs risiko. KI kan gi oss fantastiske verktøy som kan hjelpe oss med neste alt. Men det kan også gjøre stor skade, misbrukes og ødelegge samfunn.

Open AI ber om at man på et tidspunkt gjør uavhengige risikoanalyser før man går videre med treningen av fremtidige systemer. Forfatterne av det åpne brevet mener at dette tidspunktet er nå.

Les mer

Derfor ber brevet om umiddelbar stans av utviklingen av systemer som er mer avanserte enn GPT-4. Hvis ikke aktørene i bransjen blir enige ber de om at myndighetene bryter inn.

Forskning på kunstig intelligens bør igjen fokusere på å gjøre dagens beste systemer mer presise, trygge, forståelige, transparente, robuste, konsekvente, troverdige og lojale.

Brevet understreker også at det bør bli lettere å undersøke kilder brukt av KI, og at KI bør bli tydeligere på hva den dikter opp og hva som er sant.

Samfunnet har tidligere satt uvikling av teknologier med katastrofale effekter på samfunnet, på pause. Vi kan gjøre det igjen. La oss nye en lang KI-sommer, la oss ikke forhaste oss inn i høsten.

Brevet har i skrivende stund 1187 underskrifter av prominente fagpersoner, ledere, professorer og vitenskapsmenn.

Ansvarlig redaktør: Ole Magnus Kinapel.
Ta kontakt på desk(at)teknokratiet.no
© 2023 Teknokratiet.