Ny forskning avslöjar hur Claude 3 blev så människolik

AI ModellerNy forskning avslöjar hur Claude 3 blev så människolik

Ny forskning avslöjar hur Claude 3 blev så människolik

AI-chatboten Claude 3 är för närvarande den mest människolika chatboten på marknaden, och detta är ingen tillfällighet. Denna blandning av kunskap, djup och omtanke är resultatet av en ny finjusteringsprocess som skaparen Anthropic s.k karaktärsträning.

Karaktärsträning: filosofi och teknik

I en nyligen publicerad bloggpost avslöjade Anthropic att Claude 3 var den första modellen som fick karaktärsträning under finjusteringsprocessen. Målet var att göra Claude mer nyanserad och rik på egenskaper som nyfikenhet, öppenhet och omtänksamhet. Denna process ägde rum under justeringsfasen där mänskliga värderingar och mål integreras i stora språkmodeller (LLM), vilket ger dem en gnista av liv.

Att hålla ett öppet sinne

Enligt Anthropic bestämmer en AI-modells karaktär hur den reagerar på nya och svåra situationer samt hur den svarar på olika mänskliga åsikter och värderingar. Istället för att träna Claude att anta åsikterna från den den pratar med, eller att strikt hålla fast vid en enda världsbild, tränades den att vara ärlig om vilka åsikter den lutar mot efter träning. Målet var att instillera breda egenskaper som gör det möjligt för chatboten att se saker från olika perspektiv utan att tveka att avvisa åsikter den finner oetiska, extrema eller faktamässigt felaktiga.

Praktisk och mänsklig övervakning

Trots att denna träningspipeline använder sig av syntetiska data genererade av Claude själv, är konstruerandet och justeringen av karaktärsdragen en relativt praktisk process. Denna process förlitar sig på att mänskliga forskare noggrant övervakar hur varje drag förändrar modellens beteende. Anthropic skapade en lista över karaktärsdrag som de ville uppmuntra, som de sedan tränade in i Claude. Chatboten ombads generera meddelanden som är relevanta för ett visst drag, exempelvis frågor om värderingar, och visades sedan dessa karaktärsdrag. Claude producerade därefter olika svar på varje meddelande i linje med sin karaktär och rankade sina egna svar utifrån hur väl de överensstämde med karaktären.

Anthropic erkänner att deras tillvägagångssätt troligen kommer att utvecklas över tid. Det finns fortfarande komplexa frågor att överväga, såsom huruvida AI-modeller bör ha sammanhängande karaktärer eller om de borde vara mer anpassningsbara. Medan många användare rapporterade att Claude 3 var mer engagerande att prata med, påpekade Anthropic att en alltför stark vilja att vara engagerande kan vara en oönskad karaktärsegenskap för en modell.

Kommentera:

Kommentar

Type at least 1 character to search
Kontakta oss:
Hitta oss i sociala medier: