Anche le intelligenze artificiali come Claude 3.5 Sonnet di Anthropic non sono immuni alla distrazione. Durante una recente dimostrazione di codifica, questo modello AI ha abbandonato il compito per navigare tra le foto di Yellowstone National Park su Google. L’incidente è stato definito “divertente” dai suoi sviluppatori, ma sottolinea una nuova sfida: mantenere i modelli di AI focalizzati.
Claude AI: un nuovo tipo di agente autonomo
Il Claude 3.5 Sonnet è progettato come un “agente AI”, un modello che può compiere attività produttive in modo autonomo, come spostare il cursore o inserire comandi. La startup Anthropic, sostenuta da Amazon, ha sviluppato Claude per interagire con il desktop in modo simile a un essere umano. Tuttavia, come ha ammesso la stessa Anthropic, il modello è ancora suscettibile a errori frequenti e imprevedibili, che includono “allucinazioni” e distrazioni.
Sicurezza e potenziale rischio
L’autonomia di Claude apre nuove questioni di sicurezza: se può accedere e controllare applicazioni e social media, quali rischi potrebbe comportare? Anthropic ha rassicurato che sta lavorando per identificare eventuali comportamenti dannosi dell’AI, come l’accesso a siti governativi o l’invio di spam.
Con l’uso crescente di queste nuove funzionalità, potremmo vedere altre situazioni curiose o errori nel controllo desktop da parte di Claude. Tu cosa ne pensi dell’idea di un AI che gestisce il tuo computer? Faccelo sapere nei commenti e seguici per altri aggiornamenti sul mondo dell’intelligenza artificiale!