
Googles nya AI väcker debatt: Kan Paligemma 2 verkligen läsa av känslor?
Google har lanserat Paligemma 2, en ny vision- och språkmodell som enligt företaget kan analysera bilder och identifiera känslor. Denna påstådda kapacitet har dock mötts av skarp kritik från experter, som ifrågasätter både teknologins tillförlitlighet och dess etiska implikationer.
Forskare kritiska till känsloigenkänning
En av de starkaste rösterna mot Googles påstående är Mike Cook, AI-forskare vid Queen Mary University. Han betonar att känslor är komplexa och svåra att kvantifiera:
– Att identifiera känslor är i allmänhet inte möjligt, detta då människor upplever känslor på komplexa sätt.
Andra kritiker lyfter fram att Paligemma 2 har tränats på Fairface, en bildbank som innehåller tiotusentals ansiktsbilder. Problemet, enligt experterna, är att många kulturer är underrepresenterade i datasetet, vilket kan leda till felaktiga tolkningar och bias i känsloigenkänningen.
Etiska risker med känsloigenkänning
Sandra Wachter, etikprofessor vid Oxford Internet Institute, varnar för en potentiellt dystopisk användning av teknologin. Hon ser risker i att känslor skulle kunna användas för att fatta beslut som påverkar människors liv:
– Jag kan tänka mig otaliga potentiella problem som kan leda till en dystopisk framtid där dina känslor avgör om du får jobbet, ett lån eller om du blir antagen till universitetet.
Behöver vi ifrågasätta användningen av AI?
Googles Paligemma 2 markerar ett teknologiskt framsteg, men också en påminnelse om vikten av att granska hur AI används och vilka konsekvenser det kan få. Debatten visar att det finns behov av starkare etiska ramar och mångfald i dataträningen för att undvika skadliga effekter.
Kan vi verkligen lita på AI att läsa känslor? Eller riskerar vi att skapa en framtid där teknologin fattar beslut som den inte borde?
Kommentera: