Anthropic introducerar nytt skydd mot AI-jailbreaks
Anthropic tar kampen mot AI-jailbreaks med en ny kraftfull säkerhetslösning. Men kan deras försvar verkligen hålla mot framtidens hot?
Deepseek är ett gigantiskt säkerhetshål
DeepSeek R1 har snabbt blivit en av de mest populära AI-modellerna, men nu avslöjar Cisco att chatboten misslyckas med att blockera 100 % av skadliga förfrågningar. Samtidigt h
Anthropic gör sina AI modeller tillgänliga för militärt bruk
Anthropic gör avancerade AI-modeller tillgängliga för USA försvar i samarbete med Palantir och AWS. Är detta nästa steg mot en AI-driven säkerhetsstrategi, eller vilka riske
OpenAI planerar att lansera självständiga AI-agenter
OpenAI tar steget mot AI-agenter som kan arbeta självständigt, med lansering planerad till nästa år. Med potential att omvandla vardagliga uppgifter och arbetsflöden, innebär
Svarta marknaden av AI-chatbottar växer snabbt
Illegala AI-chatbots på svarta marknaden blomstrar och kan generera stora summor pengar. En studie visar att dessa skadliga LLMs kan användas för att skapa phishingmejl och skad
OpenAI stärker säkerhets- och skyddsåtgärder med ny kommitté
OpenAI har implementerat flera nya säkerhetsåtgärder för att hantera riskerna kring utvecklingen och lanseringen av sina AI-modeller. Detta sker genom en nyligen inrättad ober
AI-modeller som tränas på AI-genererad data producerar snabbt nonsens
AI modeller kan kollapsa enligt en ny studie, men vad innebär det för framtida AI och hur kan man undvika det?
Kriminella blir effektivare med AI
Kriminella använder nu AI för att förbättra dokumentförfalskning och utnyttja säkerhetsluckor, vilket ökar omfattningen och sofistikeringen av deras attacker. AI snabba utve
AI-system lär sig att ljuga och vilseleda, enligt forskare
Nya studier avslöjar att AI-modeller som GPT-4 och Metas Cicero kan uppvisa bedrägligt beteende när de tränats för specifika syften. Trots att dessa modeller inte ljuger av eg