Un “impegno volontario” per consentire a un pool di esperti di sicurezza indipendenti di testare le nuove tecnologie di intelligenza artificiale prima di lanciarle sul mercato o di metterle a disposizione del pubblico, oltre che per condividere le informazioni sulla sicurezza delle tecnologie con i governi e gli accademici. E’ il piano per mitigare i rischi dell’intelligenza artificiale che le sette principali società statunitensi impegnate nell’AI hanno illustrato al presidente Biden.
La decisione, nello specifico, riguarda Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI. Oltre a questo, le aziende si sono impegnate a segnalare con diclaimer specifici al pubblico tutti i casi in cui immagini, video o testi sono stati creati utilizzando tool di intelligenza artificiale. Secondo l’accordo, inoltre, i sistemi basati sull’intelligenza artificiale dovranno essere utilizzati per affrontare le sfide che interessano la società nella sua interezza, come le applicazioni in campo medico (soprattutto nella ricerca sui tumori) e il contrasto al cambiamento climatico.
Qui l’annuncio della Casa Bianca
Gli investimenti crescenti delle big tech nell’AI
Le grandi compagnie tecnologiche stanno intensificando gli investimenti nell’intelligenza artificiale, come dimostra il fatto che soltanto pochi giorni fa Meta, la holding di Facebook, ha annunciato la creazione di un proprio tool che si chiamerà Llama 2, impegnandosi a renderne pubblico il codice. Proprio in quell’occasione Nick Clegg, presidente degli affari globali di Meta, aveva dichiarato che la società sostiene le misure di sicurezza sviluppate dalla Casa Bianca sull’intelligenza artificiale.
Grandi manovre in corso anche in Google, dove proprio il cofondatore Sergey Brin – oltre che secondo maggior azionista della società – sarebbe tornato al lavoro dopo una lunga pausa in cui si era dedicato ad altri interessi, affiancando i ricercatori nello sviluppo dei nuovi sistemi di intelligenza artificiale e su Gemini, la tecnologia destinata a sfidare ChatGpt.