Newsletter
Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Dopo Google e Amazon, anche Apple ammette che società terze potrebbero ascoltare frammenti di conversazioni registrate da Siri. A rivelarlo è un’inchiesta del Guardian, che da fonti riservate ha appreso che alcuni clip audio registrati dall’assistente vocale dell’azienda potrebbero essere sottoposti a un controllo di qualità operato da terze parti. Secondo quanto riportato dalla fonte citata, sotto garanzia di anonimato, i tecnici delle società in appalto hanno avuto modo di ascoltare anche frammenti di conversazioni dal contenuto altamente riservato, che hanno riguardato visite mediche, traffici di droga e fughe sessuali, tutte rientrate a far parte del controllo qualità del servizio.

Alla richiesta di un commento, Apple ha replicato al Guardian che “una piccola porzione delle richieste fatte a Siri viene analizzata per migliorare Siri e la [funzione di] dettatura. Le richieste degli utenti non sono associate con l’identificativo di Apple. La risposta di Siri viene analizzata all’interno di strutture sicure e tutti i tecnici (‘reviewers’ nel testo) sono tenuti ad aderire agli stringenti parametri di riservatezza di Apple”. In aggiunta, l’azienda ha chiarito che le registrazioni sottoposte a valutazione sarebbero meno dell’uno per cento delle richieste quotidiane rivolte a Siri. Scelte in modalità casuale, queste durerebbero “tipicamente pochi secondi”.

Tuttavia, la fonte citata dal Guardian smentisce la dichiarazione di Apple, affermando che in alcuni casi è stato possibile ascoltare le clip audio di utenti che hanno inavvertitamente attivato Siri, venendo così registrati a loro insaputa. Inoltre, queste sarebbero accompagnate da informazioni che possono essere utilizzate per identificare la fonte, come ha dichiarato l’informatore anonimo: “Ci sono stati innumerevoli casi di registrazioni con discussioni private tra medici e pazienti, accordi d’affari, accordi apparentemente illeciti, incontri sessuali e così via. Queste registrazioni sono accompagnate da dati utente che mostrano la posizione, i dati di contatto e i dati dell’applicazione”.

Come evidenziato anche da Engadget, la rivelazione del Guardian è resa ancora più grave dal fatto che è abbastanza facile attivare Siri per errore. L’assistente vocale è programmato per rispondere al comando vocale di attivazione “Hey Siri”, ma questo può venire frainteso in molti modi e con diverse parole simili. L’anno scorso, per esempio, il segretario britannico alla Difesa, Gavin Williamson, è stato interrotto durante un intervento al Parlamento proprio dall’attivazione dell’iPhone presente nella sua tasca, che ha confuso la parola Siria con Siri. Secondo quanto riportato dalla fonte del Guardian, anche l’Apple Watch e lo smart speaker HomePod sono soggetti a errore, e avrebbero effettuato anche registrazioni di trenta secondi.

“Non c’è molto controllo su chi ci lavora e la quantità di dati che siamo liberi di esaminare sembra piuttosto ampia. Non sarebbe difficile identificare la persona che stai ascoltando, specialmente con attivazioni accidentali [causate da] indirizzi, nomi e così via”, ha dichiarato la fonte al Guardian. La stessa ha anche ammesso che allo staff incaricato dell’analisi degli audio sarebbe stato detto di riportare le attivazioni accidentali come problemi tecnici, senza fornire ulteriori informazioni su come agire.

La rivelazione riportata dal Guardian evidenzia, ancora una volta, i possibili errori in cui possono incorrere gli assistenti vocali. A maggio del 2018, l’omologo di casa Amazon, Alexa, ha registrato per errore delle conversazioni per poi mandarle ai contatti in rubrica, mentre un altro dispositivo della stessa azienda è diventato testimone involontario in un caso di omicidio. Ma a preoccupare è soprattutto il ricorso di queste aziende al controllo umano, spesso delegato a società terze non direttamente controllate dal produttore, come hanno dimostrato anche recenti richieste riguardanti Amazon Alexa e il concorrente prodotto da Google, Assistant

Flag Counter