Totalt har över 350 ledande personer i AI-världen skrivit under ett brev där de kräver att risken att utrotning orsakad av AI ska bli en global prioritering precis som andra samhällsrisker som pandemier och kärnvapenkrig. Det rapporterar Reuters. Bland undertecknarna
Läs mer här
Techhöjdare: riskerna med AI i nivå med kärnvapenkrig
Previous Post
Nvidia tog sig in i biljonklubben