Resta aggiornato con le notizie più importanti

Premendo il pulsante Iscriviti, confermi di aver letto e di accettare la nostra Privacy Policy
Dark Mode Light Mode

L'impiego di lavoratori minorenni per etichettare e moderare i dati utilizzati nell'addestramento degli algoritmi AI

Il recente sviluppo nel settore dell’intelligenza artificiale (AI) ha rivelato una pratica allarmante, come raccontato in un report interessante di Wired UK: l’impiego di lavoratori minorenni per etichettare e moderare i dati utilizzati nell’addestramento degli algoritmi AI. Questa pratica, diffusa in paesi come il Pakistan e il Kenya, espone giovani a contenuti spesso inappropriati e
L'impiego di lavoratori minorenni per etichettare e moderare i dati utilizzati nell'addestramento degli algoritmi AI L'impiego di lavoratori minorenni per etichettare e moderare i dati utilizzati nell'addestramento degli algoritmi AI

Il recente sviluppo nel settore dell'intelligenza artificiale (AI) ha rivelato una pratica allarmante, come raccontato in un report interessante di Wired UK: l'impiego di lavoratori minorenni per etichettare e moderare i dati utilizzati nell'addestramento degli algoritmi AI. Questa pratica, diffusa in paesi come il Pakistan e il Kenya, espone giovani a contenuti spesso inappropriati e traumatici, sollevando questioni di etica, legalità e salute mentale. Se pensavamo che l'avanzamento tecnologico potesse dipingere un futuro diverso e migliore per i minorenni dei paesi emergenti, gli stessi che continuano a produrre le nostre scarpe griffate o palloni da calcio negli scantinati, beh ... ci sbagliavamo.

Hassan, un adolescente di 15 anni del Punjab in Pakistan, rappresenta un tipico esempio di questi lavoratori minorili. Durante la pandemia di Covid-19, si è ritrovato a lavorare dalla sua camera da letto, etichettando dati per alcune delle più grandi aziende di AI del mondo. Questo compito, sebbene sembri semplice, spesso includeva la moderazione di contenuti sensibili, come immagini violente o discorsi d'odio. L'addestramento degli algoritmi di apprendimento automatico richiede dati etichettati da umani. Questi dati possono variare da compiti semplici, come identificare lampade stradali in immagini, a compiti più complessi come la moderazione di contenuti che includono violenza, discorsi d'odio o immagini per adulti. Questi lavori di etichettatura sono spesso affidati a lavoratori gig tramite piattaforme di crowdsourcing come Toloka, Appen e altri.

Le piattaforme richiedono che i lavoratori siano maggiorenni, ma molti minori, come Hassan, aggirano queste restrizioni usando dettagli di parenti adulti. Questo li espone a contenuti potenzialmente dannosi e traumatici, una realtà sottolineata da Hassan e altri lavoratori intervistati che hanno condiviso esperienze simili. Molti di questi giovani si rivolgono a questo tipo di lavoro per necessità economica. In Pakistan, un'ora di lavoro su queste piattaforme può garantire un reddito maggiore rispetto al salario minimo nazionale. Tuttavia, la natura del lavoro e i bassi pagamenti hanno portato alcuni a descriverlo come "schiavitù digitale".

Oltre alle questioni legali dell'impiego di minori, ci sono preoccupazioni significative riguardo all'impatto di questo lavoro sulla salute mentale dei giovani. L'esposizione a contenuti traumatici, in particolare nella moderazione dei contenuti, può avere effetti duraturi sulla salute mentale. Alcune piattaforme, come Toloka e Appen, hanno dichiarato di effettuare controlli sull'identità dei loro utenti, ma le indagini hanno rivelato che questi controlli sono spesso inefficaci. La mancanza di supervisione e la distanza fisica tra lavoratori e aziende tecnologiche contribuiscono a rendere invisibili questi lavoratori minorili, esposti a un insieme di regole diverse o addirittura assenti.

La rivelazione dell'uso del lavoro minorile nell'industria AI solleva domande urgenti su come le aziende tecnologiche e le piattaforme di crowdsourcing possano agire responsabilmente. Mentre l'industria dell'AI continua a crescere, è fondamentale affrontare queste questioni etiche e legali per garantire che i progressi tecnologici non si basino sullo sfruttamento di alcuni dei membri più vulnerabili della società.

Resta aggiornato con le notizie più importanti

Premendo il pulsante Iscriviti, confermi di aver letto e di accettare la nostra Privacy Policy
Articolo precedente
Come ridurre, o almeno tenere sotto controllo, le spese di una startup agli esordi

Come ridurre, o almeno tenere sotto controllo, le...

Articolo successivo
Google lancia Gemini e con esso la nuova sfida a ChatGPT

Google lancia Gemini e con esso la nuova sfida a C...

Advertisement
Advertisement

Consigliati per te

Da Milano a New York, le fiere per crescere nel business Da Milano a New York, le fiere per crescere nel business
Catania ospita il Festival del Management Catania ospita il Festival del Management
EFI in Tour, competenze in movimento EFI in Tour, competenze in movimento
OGR porta 15 scaleup italiane verso i mercati globali OGR porta 15 scaleup italiane verso i mercati globali
Bending Spoons investe per le future leader del tech Bending Spoons investe per le future leader del tech
Il format Be Digital sale a bordo di Costa Toscana Il format Be Digital sale a bordo di Costa Toscana
Turismo sotto pressione, aumentano le cancellazioni Turismo sotto pressione, aumentano le cancellazioni
Innovazione: Roma studia, Milano scala, Torino costruisce Innovazione: Roma studia, Milano scala, Torino costruisce