Vuoi vedere che internet è morta davvero?

« Older   Newer »
 
  Share  
.
  1.     +1   Top   Dislike
     
    .
    Avatar

    L’uomo è una corda tra la bestia e il superuomo.

    Group
    Moderatore Globale
    Posts
    14,274
    Location
    “Fede” significa non voler sapere quel che è vero.

    Status
    Anonymous
    1401102237_red_or_blue_pill_crimson_quill-2

    La teoria del complotto

    Non è che sia stato ucciso di colpo, ma i contenuti generati dagli utenti sarebbero stati gradualmente spodestati da una valanga di materiale fasullo. Non è un caso che questa teoria, che si è fatta largo anche su Reddit e su YouTube, individui la "morte di internet" attorno al 2016. È proprio in quel periodo, infatti, che il grande pubblico ha iniziato ad avere dimestichezza con l'operato delle cosiddette fabbriche di troll (che cercavano di influenzare l'opinione pubblica anche attraverso il massiccio ricorso di bot), con l'impatto potenziale delle fake news e anche con i video manipolati tramite la tecnologia dei deep fake.

    La "dead internet theory" (com'è nota in lingua inglese) si spinge però molto più in là, sostenendo che un esercito di intelligenze artificiali progettate proprio a questo scopo sia ormai l'unico responsabile dei contenuti presenti online. Il tutto sarebbe parte di un enorme piano di propaganda governativa, volto - come già con lo scie chimiche e il 5G - ad annebbiare il cervello della popolazione e renderlo più controllabile.

    Le prove di questa cospirazione sarebbero i post tutti uguali che si ripetono su internet (pensate alla marea di "dimmi che sei di Milano senza dirmi che sei di Milano", o simili), i politici che sui social ripetono in massa, parola per parola, quanto già detto dai colleghi di partito o i vari trend virali che spronano gli utenti a pubblicare contenuti estremamente simili tra loro.

    Molto più ragionevolmente la ragione di tutto ciò non va ricercata in un complotto governativo, ma nella spinta all'omogeneizzazione provocata dai social. Insomma, nonostante la moltiplicazione dei bot che diffondono contenuti creati automaticamente, la teoria sulla morte di internet rappresenta l'ennesima assurdità partorita sul web. O forse sarebbe meglio dire che rappresentava un'assurdità, perché negli ultimi mesi questa teoria complottista si sta rivelando sempre più simile a una profezia.

    internet-mobile

    Contenuti generati dall'AI

    Per quanto non si tratti di un'oscura trama dei soliti "poteri forti" che agitano i sonni dei complottisti, è innegabile che negli ultimi mesi i contenuti automatici generati dalle intelligenze artificiali - e in particolar modo dai large language model in stile ChatGpt - abbiano iniziato a diffondersi in maniera incontrollata. Peggio ancora: questi contenuti stanno cannibalizzando il web, dando vita a un circolo vizioso che potrebbe, col tempo, effettivamente uccidere la rete, seppellendo i contenuti creati dagli esseri umani sotto una marea di materiale artificiale e addirittura disincentivando la creazione di contenuti originali di ogni tipo.

    Le modalità con cui questo fenomeno si sta verificando sono varie. Per esempio, la possibilità di impiegare sistemi come ChatGpt per produrre in tempi rapidissimi una marea di testi sta facendo la fortuna economica delle cosiddette AI content farms: vere e proprie fabbriche di contenuti generati tramite intelligenza artificiale, in grado di pubblicare enormi quantità di articoli rielaborando automaticamente i testi e le notizie già presenti online.

    È il caso di siti come Worldtimestoday.com o WatchdogWire, in cui un singolo "autore" arriva a pubblicare anche centinaia di articoli al giorno grazie all'AI. Secondo una ricerca condotta da Newsguard, questi siti spazzatura non stanno solo inondando il web, ma si stanno rivelando delle macchine da soldi: "Sembra che la pubblicità organica sia la principale fonte d'introiti di questi siti web creati con l'intelligenza artificiale - ha spiegato l'analista di NewsGuard Lorenzo Arvanitis -. Abbiamo identificato centinaia di aziende presenti su Fortune 500 o brand molto noti che fanno pubblicità su questi siti, supportandoli inconsapevolmente".

    Che si tratti di realtà professionali si capisce anche analizzando l'attività di alcune di esse. Un gruppo editoriale chiamato Gamurs Group e specializzato in videogiochi vanta per esempio 17 pubblicazioni e 66 milioni di lettori al mese. Recentemente ha pubblicato un annuncio di lavoro su Linkedin per un "AI editor" che ha il compito di scrivere "tra i 200 e i 250 articoli alla settimana". Ovvero circa 30/40 al giorno, festivi compresi.

    Traduzioni automatiche

    La quantità di contenuti generati automaticamente potrebbe però essere ancora più ampia del previsto. Secondo uno studio condotto dal ricercatore dell'Università della California Mehak Dhaliwal, il 57,1% dei testi presenti sull'intero world wide web sarebbero traduzioni. Di queste, una larghissima parte sarebbe costituita da traduzioni multilingue (quindi in due o più lingue) fatte utilizzando sistemi di traduzione automatica, allo scopo di popolare la rete anche con contenuti scritti nelle lingue meno presenti sul web.

    Messa così potrebbe sembrare un'intenzione nobile, se non fosse che - come spiega sempre Dhaliwal - "maggiore è il numero di lingue in cui una frase è stata tradotta, minore è la qualità della traduzione". Non solo perché le traduzioni automatiche nelle lingue meno diffuse sono notoriamente poco efficaci, ma anche perché, di traduzione in traduzione, il risultato peggiora progressivamente.

    Non è tutto: "La gran parte di queste traduzioni proviene da articoli che definiamo di bassa qualità e che richiedono poca o nessuna competenza per essere creati", prosegue Dhaliwal. Si tratta insomma dei classici articoli clickbait ("sei trucchi per essere felici", "come farsi apprezzare dal capo" e simili), tradotti automaticamente in un'enorme quantità di lingue per popolare siti che hanno il solo scopo di generare traffico e quindi guadagnare con la pubblicità.

    Il fatto che la maggioranza dei testi in lingue poco presenti sul web sia creata tramite traduzioni automatiche provoca però un circolo vizioso. Se per esempio volessimo creare un large language model in lingua Swahili, dovremmo usare per il suo addestramento i testi in questa lingua presenti sul web. Se però questi sono, a causa delle traduzioni automatiche in larga parte di scarsa qualità, allora ne risulterebbe compromesso lo sviluppo del large language model. Inoltre questo contribuirebbe ad aumentare il già crescente divario digitale tra le diverse aree del mondo.

    traduzione-automatica-assistita

    Wikipedia e Amazon

    Anche le realtà che hanno fatto la storia di internet non sono immuni a questo fenomeno. Infatti, se analizziamo quali siano le lingue più diffuse su Wikipedia, si scopre un risultato sorprendente: dopo l'inglese, la seconda lingua più presente è il cebuano, parlato nel sud delle Filippine da circa 20 milioni di persone. La ragione è legata a un bot, creato da uno sviluppatore svedese sposato con una donna filippina, che per anni ha tradotto in automatico una marea di brevi articoli scarsamente informativi pubblicandoli poi nella versione cebuana di Wikipedia.

    E che dire di Amazon, invaso da una tale quantità di libri scritti da sistemi di intelligenza artificiale - spesso senza che sia nemmeno esplicitato - da costringere l'azienda fondata da Jeff Bezos a impedire agli autori di pubblicare più di tre libri al giorno (quantità comunque decisamente generosa)? Anche in questo caso, la logica è quella della pesca a strascico: pubblicare centinaia di pseudo-libri può rappresentare una notevole fonte di guadagno anche se le vendite di ciascuno fossero limitatissime.

    Macchina delle risposte

    Il caso in prospettiva più allarmante è però quello di Google, che sfruttando i suoi sistemi di intelligenza artificiale generativa (come il recente Gemini) si sta trasformando da motore di ricerca in "macchina delle risposte". Invece di indirizzare l'utente verso i siti web più adatti alle richieste, Google sta infatti prendendo la forma di un oracolo-intelligenza artificiale che fornisce direttamente le risposte, rielaborando i testi già presenti in rete.

    Per esempio, se cerchiamo informazioni sui migliori computer economici, la versione beta del nuovo motore di ricerca di Google sfrutta il materiale proveniente da vari siti specializzati per generare integralmente il risultato (e lo stesso vale per biografie di personaggi storici, informazioni economiche, recensioni di videogiochi e curiosità di ogni tipo), limitandosi a mostrare in un angolo alcuni dei link utilizzati per crearlo.

    Tutto ciò, inevitabilmente, significa che la stragrande maggioranza degli utenti non cliccherà più su nessun link, limitandosi a consultare il testo generato dal motore di ricerca: "L'obiettivo di Google è fornire una ricerca 'zero-click', che sfrutta le informazioni delle testate e degli autori che impiegano tempo e fatica per creare contenuti senza offrire loro nessun beneficio", ha spiegato a Cnbc il Ceo di TechRaptor, Rutledge Dauguette.

    C'è una via d'uscita?

    Come segnala James Vincent su The Verge, la situazione sta talmente sfuggendo di mano da potersi rivelare un'opportunità: "Anche se il web è effettivamente inondato di spazzatura creata dalla AI, non è detto che ciò sia un male. Se Google ci fornisce costantemente dei pessimi risultati durante le nostre ricerche, potremmo essere più inclini a pagare per visitare direttamente le fonti di cui ci fidiamo".

    Allo stesso tempo, se Amazon diventa un ricettacolo di pseudo-saggi scritti da ChatGpt, potremo essere incentivati a fare acquisti su un libreria online che filtra con maggiore attenzione i libri messi in vendita (o magari in una libreria vera e propria). Se i blog di viaggi diventano tutti identici ("Le 10 cose da non perdere se vai a New York"), potremmo essere incentivati a iscriverci a una newsletter a pagamento che offre consigli realmente interessanti (o magari a comprare una Lonely Planet).

    Se anche questa speranza si rivelasse fondata, una cosa è certa: il web per come lo conoscevamo - di massa, aperto a tutti, generato anche dagli utenti e in larga parte gratuito - sta morendo davanti ai nostri occhi. Ucciso dalle intelligenze artificiali. Esattamente come aveva previsto la teoria del complotto.

    Fonte: Wired
     
    Top
    .
0 replies since 26/2/2024, 12:00   55 views
  Share  
.
Top