OpenAI stärker säkerhets- och skyddsåtgärder med ny kommitté

CybersäkerhetOpenAI stärker säkerhets- och skyddsåtgärder med ny kommitté

OpenAI stärker säkerhets- och skyddsåtgärder med ny kommitté

OpenAI har implementerat flera nya säkerhetsåtgärder för att hantera riskerna kring utvecklingen och lanseringen av sina AI-modeller. Detta sker genom en nyligen inrättad oberoende kommitté, Safety and Security Committee (SSC), som ska övervaka säkerhets- och skyddsprocesser.

Oberoende styrning för ökad säkerhet

SSC kommer att vara en oberoende styrelsekommitté som leds av Zico Kolter, chef för avdelningen för maskininlärning vid Carnegie Mellon University. Kommittén inkluderar också Adam D’Angelo, medgrundare och VD för Quora, pensionerade amerikanska generalen Paul Nakasone samt Nicole Seligman, tidigare chefsjurist på Sony Corporation. De kommer att granska säkerhetsbedömningar inför varje större modellsläpp och har befogenhet att skjuta upp lanseringar tills säkerhetsrisker har åtgärdats.

Förstärkta säkerhetsåtgärder

Cybersäkerhet är en central del av AI-säkerheten, och OpenAI arbetar med att stärka skyddet av sin forskning och sina produkter. Företaget utökar sitt interna säkerhetsteam, förbättrar informationssegmentering och investerar i nya säkerhetsinitiativ. Som en del av detta överväger man att skapa ett Information Sharing and Analysis Center (ISAC) för AI-branschen, vilket skulle möjliggöra delning av hotinformation mellan aktörer inom sektorn.

Transparens i säkerhetsarbetet

OpenAI strävar efter att vara transparenta med sitt säkerhetsarbete. De har länge publicerat så kallade ”systemkort” som beskriver modellernas kapacitet och risker. Exempelvis har systemkorten för GPT-4o och o1-preview gett detaljerade insikter i säkerhetsarbetet före varje lansering, inklusive resultat från externa tester och riskbedömningar enligt företagets Preparedness Framework.

Samarbete med externa organisationer

OpenAI utökar sina samarbeten med externa säkerhetsorganisationer och forskningsinstitut för oberoende granskning av sina modeller. Man har redan inlett samarbete med Los Alamos National Labs för att undersöka hur AI kan användas säkert i vetenskapliga miljöer. Dessutom samarbetar OpenAI med AI-säkerhetsinstitut i USA och Storbritannien för att studera nya säkerhetsrisker och utveckla standarder för pålitlig AI.

Enhetligt säkerhetsramverk för modellutveckling

OpenAI bygger ett integrerat säkerhets- och skyddsramsystem för modellutveckling och övervakning. Detta system ska baseras på riskbedömningar och godkännas av SSC. Syftet är att säkerställa en enhetlig standard för modellsläpp och att anpassa säkerhetsstrategierna i takt med att modellerna blir alltmer avancerade. OpenAI har även omorganiserat sina forsknings-, säkerhets- och policyteam för att förbättra samarbetet och säkerställa en effektivare integration av säkerhetsåtgärder.

Kommentera:

Kommentar

Type at least 1 character to search
Kontakta oss:
Hitta oss i sociala medier: