La maggior parte dei componenti è stato spostato “altrove” nell’azienda. La unit aiutava gli sviluppatori a realizzare prodotti non dannosi per gli utenti
Tra i 10mila dipendenti licenziati da Microsoft nelle scorse settimane rientrano alcuni dei componenti del team che si occupava dell’intelligenza artificiale e delle importanti questioni etiche che riguardano l’impatto sulla società di chatbot e tecnologie sempre più performanti. Questa divisione è stata inoltre sciolta. A dare lo scoop è stato Platformer, secondo cui al momento il gigante di Redmond sarebbe sprovvisto di una unit dedicata a garantire l’eticità di strumenti e prodotti su cui Microsoft continua a investire. La Big Tech guidata da Satya Nadella ha dominato il dibattito tech degli ultimi mesi, soprattutto alla luce del suo investimento pluriennale da 10 miliardi di dollari in OpenAI, l’azienda fondata da Sam Altman che ha sviluppato ChatGPT. Quest’ultimo, fra l’altro, è stato inserito all’interno del motore di ricerca Bing e, secondo diversi esperti, sta dando più di qualche preoccupazione a Google.
Leggi anche: Chi sostituirà l’intelligenza umana? ChatGPT, dagli inizi con Elon Musk alla guerra con Google
Nel 2020 il team dedicato all’AI responsabile ed etica all’interno di Microsoft contava 30 persone, figure professionali che hanno lasciato un’eredità all’interno dell’azienda, come un gioco di ruolo in grado di insegnare agli sviluppatori il metodo per progettare prodotti di intelligenza artificiale non dannosi. La maggior parte dei membri del team è stata ricollocata in altre divisioni all’interno della multinazionale. La presenza di unit simili è senz’altro preziosa per qualsiasi Big Tech, in grado così di presentarsi all’esterno e all’opinione pubblica come una società attenta e responsabile. D’altra parte, come sottolinea Platformer, è risaputo che il lavoro di questi professionisti viene spesso criticato a porte chiuse, perché ritarda i lavori (e il business) sulla base di considerazioni legate all’etica e ai potenziali danni che certi prodotti potrebbe avere sugli utenti.