HyperWrite lanserar världens kraftfullaste öppna AI-modell: Reflection 70B
HyperWrite, ett AI-skrivarstartat lett av medgrundaren och VDMatt Shumer, har lanserat Reflection 70B, en ny stor språkmodell (LLM) baserad på Metas öppna Llama 3.1-70B Instruct. Modellen utmärker sig genom en unik teknik för självkorrigering av fel och presterar bättre än andra modeller på oberoende benchmarktester. Enligt Shumer, som presenterade modellen på sociala nätverket X, är Reflection 70B nu ”världens bästa öppna AI-modell.”
Reflection 70B har testats grundligt på flera benchmarks, inklusive MMLU och HumanEval, där resultaten har säkerställts med hjälp av LMSys’s LLM Decontaminator för att undvika datakontaminering. Modellen överträffar konsekvent Metas Llama-serie och kan mäta sig med de bästa kommersiella modellerna.
Unika funktioner som skiljer Reflection 70B från mängden
En av de mest utmärkande egenskaperna hos Reflection 70B är dess förmåga till felidentifiering och självkorrigering. Shumer förklarade i en intervju med VentureBeat att modellen använder en teknik som kallas ”reflection tuning” för att identifiera och korrigera egna misstag innan den levererar slutgiltiga svar till användaren. Modellen introducerar speciella tokens för resonemang och felkorrigering, vilket gör det enklare för användare att interagera med modellen på ett mer strukturerat sätt.
På demowebbplatsen kan användare testa modellen med förslag på promptar som visar dess förmåga att lösa problem som andra AI-modeller ofta misslyckas med, som att räkna bokstäver i ord eller jämföra decimaler korrekt. Även om svaren kan ta tid att generera, levererar modellen till slut korrekta svar genom att bryta ner resonemanget i distinkta steg.
Större modeller på väg
Reflection 70B är bara början på Reflection-serien. En ännu större modell, Reflection 405B, planeras att lanseras nästa vecka och förväntas överträffa även de bästa slutna modellerna på marknaden. Shumer nämnde också att HyperWrite arbetar på att integrera Reflection 70B i sin huvudsakliga AI-skrivarassistent.
Den underliggande modellen för Reflection 70B bygger på Metas Llama 3.1 70B Instruct och använder standard Llama-chatformat, vilket säkerställer kompatibilitet med befintliga verktyg och pipelines.
Samarbete med Glaive för snabba framsteg
En viktig faktor bakom Reflection 70Bframgång är det syntetiska datagenereringsföretaget Glaive, som tillhandahåller specialanpassade dataset. Glaives plattform gör det möjligt att snabbt träna små, högfokuserade språkmodeller, vilket bidrar till att demokratisera tillgången till AI-verktyg. Glaive har lyckats skapa syntetiska dataset anpassade till specifika behov, vilket underlättar snabb och kostnadseffektiv finjustering av modeller.
Genom att använda Glaives teknik kunde Reflection-teamet snabbt generera högkvalitativ syntetisk data för att träna Reflection 70B. Enligt Shumer tog träningsprocessen tre veckor med fem iterationer av modellen.
HyperWrites resa och framtidsplaner
HyperWrite, som grundades som Otherside AI av Matt Shumer och Jason Kuperberg 2020 på Long Island, har utvecklat sin plattform från en enkel Chrome-tillägg till en kraftfull AI-assistent med över två miljoner användare. Företaget har nyligen fått finansiering för att vidareutveckla sina AI-drivna funktioner, inklusive verktyg som omvandlar webbläsare till virtuella butlers.
Framåt planerar Shumer att fortsätta utöka Reflection-serien och förväntar sig att den kommande Reflection 405B kommer att överträffa marknadsledande modeller som GPT-4 från OpenAI. Denna utveckling kan förändra maktbalansen i den snabbt växande AI-branschen och ge öppna modeller en konkurrensfördel över proprietära alternativ.
Kent Lundgren
Intressant!