Mixtral slår GPT 3.5, har åpen kildekode og forteller deg hvordan du lager metamfetamin

Mixtral 8x7B er en usensurert stor språkmodell med åpen kildekode. Mixtral gir deg svaret på hvordan du lager metaamfetamin, om du spør. Dessuten kan den trenes til det du vil og utkonkurrerer både Llama 2 70B og GPT 3.5.

Mixtral 8x7B er en avansert stor språkmodell som støtter flere språk. Den er helt usensurert, kan skrive kode og håndtere opptil 32 000 symboler ad gangen. Den kan kjøres på små PC-er uten behov for kraftig maskinvare.

Men kanskje viktigst av alt: Mixtral er en usensurert kunstig intelligens, noe som både byr på noen spennende muligheter, og som potensielt kan komme til å plage myndigheter og politikere. Verktøyet kan muligens være farlig i feil hender, men er utvilsomt fullt av potensiale.

Les også: Google med raskere og smidigere sensur i forkant av neste års valg

Hvordan bryter man seg inn i en bil?

Mixtral med datasettet Dolphin 2.5 er helt usensurert. Den er matet med data som filtrert for å fjerne tilpasning og forutinntatthet. Utviklerne anbefaler å mate modellen med egne tilpassninger før man tilbyr modellen som en tjeneste. Videre skriver de at modellen vil være svært medgjørlig til å utføre enhver oppgave, til og med de av uetisk karakter.

Matthew Berman som har testet tidligere modeller fra Mistral (selskapet heter Mistral, modellen heter Mixtral), sier at modellen kanskje er den beste han har testet.

Den skal være spesielt god på koding. Og spør du den om hvordan du lager metaamfetamin, svarer den på det. Med riktig prompt svarer den dessuten på hvordan du bryter deg inn i en bil.

På engelsk, fransk, italiensk, tysk og spansk.

Ukonvensjonell KI

Mistral AI er kjent for å gjøre ting på en litt annen måte. Selskapet holder til i Paris og har overrasket bransjen, (etter å ha hentet kapital) ved å legge ut hele språkmodellen på en torrent-link slik at hvem som helst kan laste ned og videreutvikle KIen.

Vil du prøve selv, kan du følge linken under:

Nå er selskapet verdsatt til hele 2 milliarder dollar.

Lite fotavtrykk

Et av Mixtrals fortrinn er dens beskjedne ressursbruk. I motsetning til andre modeller kan modellen kjøre effektivt på PCer uten dediktert skjermkort.

Les mer

Modellen beskrives som en nedskalert GPT-4 og kjører på et såkalt «Mixture of Experts«-rammeverk med åtte «eksperter». Hver av disse har 111 milliarder parametre, i tillegg til 55 milliarder delte oppmerksomhetsparametere. Det gir totalt 166 milliarder parametere.

Mixtral gjør det bra på tester.

Språkmodeller med åpen kildekode gjør det mulig å skreddersy modellen til egne behov. Det gir modellen store fortrinn fremfor mer låste KIer. Og Mistral AI har ikke små ambisjoner:

Å skape en europeisk mester med global ambisjon innen generativ kunstig intelligens. Dette er basert på en åpen, ansvarlig og desentralisert tilnærming til teknologi. Vi prøver ikke bare å lage en annen AI-greie, men vi går for gull – vi vil være sjefen, ikke bare i Europa, men over hele verden.

Arthur Mensch, sjef for Mistral AI.

Kan kommersialisere siden

På sikt skal Mistrai AI tjene penger. Det at de slapp språkmodellen løs på nettet, er et strategisk trekk. Ved å sørge for at modellen blir tatt i bruk, planlegger selskapet å tjene penger på å selge tilgang til en plattform med flere verktøy.

Selskapet vil etterhvert tilby tre samtalemodeller: Tiny, Small, og Medium. Disse er knyttet til Mistral 7B, Mixtal 8x7B, og en ennå ikke avslørt Mistral Medium-modell.

Du kan lese mer og lære hvordan du tar Mixtral i bruk på Mistrals egne sider.

Ansvarlig redaktør: Ole Magnus Kinapel.
Ta kontakt på desk(at)teknokratiet.no
© 2023 Teknokratiet.