Apple rimuove App che spogliavano le persone con l’IA

L’intelligenza artificiale (AI) sta rivoluzionando il campo dell’editing fotografico, offrendo strumenti avanzati per l’ottimizzazione delle immagini, tra cui la rimozione dello sfondo automatica, la regolazione dell’esposizione e del colore, e la personalizzazione basata sull’AI. Tuttavia, l’uso di AI che spoglia persone nelle foto ha sollevato questioni etiche significative, portando a una crescente preoccupazione riguardo il rispetto della privacy e la moralità nell’uso di strumenti come DeepNude.

Di fronte a queste preoccupazioni, grandi aziende tecnologiche come Apple hanno adottato misure drastiche, eliminando dalle loro piattaforme le app che abilitano la creazione di immagini compromettenti tramite l’AI. Questa mossa ha evidenziato la tensione tra le capacità innovative dell’AI in ambito fotografico e la necessità di navigare responsabilmente i dilemmi etici che ne derivano, sottolineando l’importanza di un approccio etico all’IA nel rispetto della privacy individuale.

Le app incriminate

Tra le applicazioni recentemente rimosse dall’App Store di Apple, una in particolare ha suscitato notevole attenzione per le sue implicazioni etiche. Quest’app consentiva agli utenti di manipolare fotografie per rimuovere i vestiti dalle immagini delle persone, sollevando preoccupazioni significative riguardo la violazione della privacy e l’etica. In aggiunta, alcune di queste app sono state criticate per iscrivere gli utenti a servizi aggiuntivi senza il loro consenso esplicito, complicando ulteriormente la questione del rispetto della privacy degli utenti.

  1. Violazioni Etiche: Apple ha eliminato un’app specifica dal suo App Store che permetteva la creazione di immagini compromettenti utilizzando l’intelligenza artificiale, citando violazioni etiche come motivo principale.
  2. Servizi Non Richiesti: Alcune app hanno incluso gli utenti in servizi aggiuntivi senza la loro approvazione, aumentando le preoccupazioni per la sicurezza e la privacy degli utenti.

Questi episodi hanno catalizzato una riflessione più ampia sull’uso responsabile delle tecnologie emergenti e sull’importanza di garantire che le innovazioni nel campo dell’intelligenza artificiale siano guidate da principi etici solidi.

Problemi legati all’AI generativa

L’uso dell’intelligenza artificiale generativa solleva questioni etiche e pratiche significative. Queste tecnologie, capaci di creare contenuti originali come testi, immagini, musica e video, possono anche perpetuare e intensificare pregiudizi esistenti. Studi hanno mostrato che solo il 47% delle organizzazioni verifica la presenza di bias nei dati, nei modelli e nell’uso umano degli algoritmi. Ad esempio, lo strumento di reclutamento AI di Amazon è stato abbandonato a causa del suo bias contro le donne.

Bias e Discriminazione nell’AI

  1. Prejudizi nei Dati di Addestramento: Gli algoritmi di AI possono incorporare i pregiudizi umani, portando a decisioni errate.
  2. Riproduzione di Standard Convenzionali: L’AI può rafforzare la discriminazione, aderendo agli standard convenzionali di bellezza e comportamento.

Questioni di Responsabilità e Sicurezza

  1. Veicoli Autonomi e Droni: Queste tecnologie sollevano questioni etiche, come determinare la responsabilità in caso di incidenti.
  2. Uso in Ambito Educativo: L’uso improprio dell’AI in educazione può portare a informazioni false o imprecise, sollevando dubbi sull’integrità accademica.

Impatto sulla Percezione e l’Autenticità

  1. Manipolazione del Giudizio Umano: Come evidenziato dallo scandalo dei dati di Facebook-Cambridge Analytica, l’AI può manipolare il giudizio umano.
  2. Deepfakes e Narrazioni False: I deepfakes possono creare narrazioni false, danneggiando la fiducia nei media.
  3. Best Take e la Narrazione Visiva: Questa tecnologia solleva preoccupazioni etiche sul ruolo dell’AI nel rimodellare le narrazioni visive e standardizzare ideali di felicità, bellezza e perfezione.

Attraverso questi esempi, emerge chiaramente la necessità di un approccio etico maturo e innovativo per garantire uno sviluppo e un uso responsabile dell’AI, rispettando i valori e i principi fondamentali.

La risposta di Apple e Google

Nel contesto delle crescenti preoccupazioni per la privacy e la sicurezza online, Apple e Google hanno adottato misure significative per rafforzare la protezione dei dati degli utenti. Apple ha introdotto nuove etichette sulla privacy nell’App Store, che forniscono informazioni dettagliate su come le app raccolgono e utilizzano i dati dei clienti. Queste etichette includono dettagli sui dati collegati all’utente, sui dati utilizzati per tracciare l’utente e sui dati non collegati all’utente. Inoltre, Apple offre strumenti e impostazioni per aiutare i clienti a gestire i dati condivisi, inclusa la possibilità di ottenere una copia dei dati memorizzati associati al proprio ID Apple, accedere alla correzione dei dati e cancellare il proprio ID Apple e i dati associati.

Google, d’altra parte, si è impegnata a rendere le esperienze web e app più sicure e accessibili, eliminando i cookie di terze parti in Chrome a favore delle soluzioni Privacy Sandbox, che supportano casi d’uso principali come la pubblicità mirata e la misurazione dell’impatto senza tracciamento degli utenti. L’integrazione del Privacy Sandbox in Android mira a rafforzare ulteriormente la protezione della privacy degli utenti senza ostacolare la crescita di sviluppatori, inserzionisti e editori, sviluppando soluzioni Android che operano senza identificatori tra app e limitando la condivisione dei dati degli utenti.

Entrambe le aziende sono state inoltre chiamate a rispondere alla Commissione Europea riguardo la gestione della sicurezza nei loro App Store e Play Store, conformemente alle norme del Digital Services Act (DSA), che richiede alle aziende di valutare e mitigare i potenziali rischi legati ai loro servizi, inclusi la diffusione di contenuti illegali e dannosi, gli effetti sui diritti fondamentali, la sicurezza pubblica, la salute pubblica e l’impatto sui minori. La conformità a queste normative è essenziale per garantire un ambiente digitale sicuro e rispettoso della privacy degli utenti.

Impatto sulla privacy e la sicurezza online

L’aumento degli apparecchi connessi introduce una crescente vulnerabilità e nuovi punti di accesso per gli attacchi informatici ai sistemi IT aziendali. La sicurezza informatica non riguarda solo la raccolta dei dati, ma anche la sicurezza fisica, dato il rischio che individui malintenzionati possano impartire comandi a distanza agli oggetti.

Privacy by Design

Il GDPR impone al responsabile del trattamento dei dati di adottare un ruolo proattivo nella scelta e nell’adozione di misure tecniche e organizzative, dimostrando la conformità al regolamento fin dalla fase di progettazione. Questo approccio è noto come “Privacy by Design“.

Sensibilità degli Utenti alla Privacy

La sensibilità degli utenti alla privacy varia a seconda del tipo di applicazione. Ad esempio, il 45% dei consumatori italiani si preoccupa dell’uso dei dati raccolti dai dispositivi intelligenti in casa, mentre solo il 28% esprime preoccupazioni per i dati provenienti dalle auto connesse.

Monitoraggio delle App da Parte di Apple

I dispositivi Apple, inclusi iPhone e iPad, controllano regolarmente le app di terze parti alla ricerca di malware noto. Se un’app contiene malware, il dispositivo impedisce la sua apertura e mostra un avviso che suggerisce la sua eliminazione. Gli utenti possono trovare maggiori informazioni su un particolare avviso nelle impostazioni, sotto l’app in questione.

Casi precedenti di violazione della privacy tramite AI

Nel recente passato, l’uso dell’intelligenza artificiale ha sollevato preoccupazioni significative relative alla privacy degli utenti, portando a sanzioni legali in alcuni casi notevoli. Un esempio rilevante è quello di ChatGPT, un modello di AI sviluppato da OpenAI, che è stato multato dal GDPR in Italia per aver violato le norme sulla privacy.

OpenAI ha raccolto e utilizzato i dati degli utenti senza il loro consenso esplicito, contravvenendo agli articoli 6 e 32 del GDPR. Di conseguenza, l’autorità italiana per la privacy, il Garante, ha bloccato l’uso di ChatGPT in Italia fino a quando OpenAI non dimostrerà di proteggere adeguatamente i dati degli utenti. La multa ammontava a 10 milioni di euro, riflettendo la gravità della violazione e la mancanza di piena cooperazione da parte dell’azienda durante l’indagine.

Un altro caso coinvolge il Comune di Trento, sanzionato dal Garante per l’uso di AI nei progetti di ricerca “Marvel” e “Protector”, che prevedevano la raccolta e l’analisi di dati da luoghi pubblici tramite microfoni e telecamere. Questi progetti violavano il GDPR in diversi modi, inclusa l’assenza di basi legali per l’elaborazione dei dati, tecniche di anonimizzazione insufficienti, la condivisione di dati personali con parti non autorizzate e una mancanza di trasparenza. Le metodologie di raccolta e analisi dei dati erano considerate invasive e ponevano rischi significativi per i diritti fondamentali e le libertà degli individui. Tuttavia, il Garante ha espresso la sua apertura all’uso dell’AI nella ricerca e si è dichiarato disposto a collaborare con le amministrazioni per garantire la conformità alle leggi sulla privacy.

Conclusioni

Attraverso l’analisi dei dilemmi etici sollevati dallo sviluppo e dall’utilizzo dell’intelligenza artificiale, in particolare nell’ambito dell’editing fotografico e della privacy online, abbiamo visto come grandi aziende come Apple abbiano dovuto navigare tra innovazione e etica. Le loro risposte a queste sfide includono la rimozione di app eticamente discutibili e l’implementazione di nuove misure per la protezione della privacy, sottolineando l’importanza di principi etici solidi nell’evoluzione tecnologica. La gravità delle conseguenze legate alla violazione della privacy, come evidenziato dai casi di sanzioni legali, rafforza la necessità di un approccio responsabile nello sviluppo dell’AI.

Infine, mentre ci avviciniamo a una maggiore integrazione dell’IA nella nostra vita quotidiana, diventa imperativo un equilibrio tra le potenzialità dell’IA e il rispetto per la privacy e l’etica. Questo non solo riguarda la creazione di normative più stringenti e di meccanismi di controllo efficaci come quelli proposti da Apple e Google, ma invita anche a una riflessione collettiva sul futuro che desideriamo costruire con l’aiuto dell’IA. La via verso questo equilibrio richiede una collaborazione tra sviluppatori, aziende, utenti e regolatori per garantire che l’IA rappresenti un’avanzata positiva per la società, mantenendo al contempo un impegno incondizionato verso principi etici universali.

Lascia un commento