(OT) Metaverso, droidi e varie porcherie futuristiche

Scatta il fluido erotico...

Moderatori: Super Zeta, AlexSmith, Pim, Moderatore1

Messaggio
Autore
Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77467
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#196 Messaggio da Drogato_ di_porno »

Floppy Disk ha scritto:
02/06/2023, 10:43
AI-controlled US military drone ‘kills’ its operator in simulated test
"Non devo essere io ad insegnarvi che avete nemici ed in gran numero, che non sanno perché lo siano, ma che come cani bastardi di villaggio, si mettono ad abbaiare quando i loro simili lo fanno" (Shakespeare, Enrico VIII)

Avatar utente
Floppy Disk
Storico dell'impulso
Storico dell'impulso
Messaggi: 6161
Iscritto il: 17/11/2020, 14:16
Località: Windows XP

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#197 Messaggio da Floppy Disk »

gaston ha scritto:
02/06/2023, 11:46
eppure quest'incidente non li fermerà, siamo su un treno in corsa da cui non possiamo scendere
L'essere umano è l'unico essere vivente che è stato "brillantemente" capace di rendere molto più pericoloso il mondo in cui è nato e vive. Dal punto di vista pratico, siamo di fronte ad uno dei più clamorosi e potenzialmente disastrosi fallimenti dell'economia di mercato capitalista. Lo strapotere delle multitech le rende quasi degli stati (anzi, direi dei principati) sovrani al pari della nazioni, e non le si può bloccare a causa delle leggi sulla libertà di commercio e impresa figlie delle nostre Costituzioni, a loro volta figlie della cultura liberale settecentesca.
Comunque non posso non pensare a determinati passaggi di questa scena.
[Scopri]Spoiler
I'm a humanist. Maybe the last humanist.

In the long run we are all dead.

Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77467
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#198 Messaggio da Drogato_ di_porno »

"Non devo essere io ad insegnarvi che avete nemici ed in gran numero, che non sanno perché lo siano, ma che come cani bastardi di villaggio, si mettono ad abbaiare quando i loro simili lo fanno" (Shakespeare, Enrico VIII)

Avatar utente
dostum
Storico dell'impulso
Storico dell'impulso
Messaggi: 22647
Iscritto il: 18/12/2001, 1:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#199 Messaggio da dostum »

Drogato_ di_porno ha scritto:
02/06/2023, 12:35
Floppy Disk ha scritto:
02/06/2023, 10:43
AI-controlled US military drone ‘kills’ its operator in simulated test
Drugat mi hai battuto sul tempo volevo darla io sta notizia!


cmq ANDRA TUTTO BENE E INSIEME CE LA FAREMO (ovviamente è complottismo vi pare che la più grossa demokrazia del mondo prepari genocidio?)
MODELLO DUE

Autore: Philip K. Dick
Anno: 1953
Genere: FS Robotica
Edizione: Antologia Rapporto di Minoranza e Altri Racconti

Commento:
Robot assassini invadono la Terra e oltre... bellissimo racconto di Dick

Trama (attenzione spoiler!):
Gli Stati Uniti stanno vincendo la guerra contro i Russi in un mondo stravolto dalle esplosioni nucleari grazie all’utilizzo degli “artigli”, robot automatici prodotti in maniera ormai indipendente da fabbriche totalmente automatizzate. Le fabbriche hanno iniziato però a costruire modelli con sembianze umane che attaccano anche gli americani. Uno di questi, il Modello Due, infiltrato in un gruppo di reduci dell’Armata Rossa, riesce a ingannare un ufficiale Americano guadagnando la sua fiducia e impadronendosi della navicella verso la Luna per invadere il quartiere generale statunitense, posizionato sul satellite. L’ufficiale è comunque ottimista perché gli stessi robot hanno iniziato a fabbricare armi per distruggersi l’un l’altro
MEGLIO LICANTROPI CHE FILANTROPI

Baalkaan hai la machina targata Sassari?

VE LA MERITATE GEGGIA

gaston
Veterano dell'impulso
Veterano dell'impulso
Messaggi: 2925
Iscritto il: 08/11/2013, 17:39
Località: milano

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#200 Messaggio da gaston »

:023 :023

Avatar utente
Floppy Disk
Storico dell'impulso
Storico dell'impulso
Messaggi: 6161
Iscritto il: 17/11/2020, 14:16
Località: Windows XP

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#201 Messaggio da Floppy Disk »

dostum ha scritto:
03/06/2023, 3:38
L’ufficiale è comunque ottimista perché gli stessi robot hanno iniziato a fabbricare armi per distruggersi l’un l’altro
Del resto, il frutto non cade troppo lontano dall'albero.
I'm a humanist. Maybe the last humanist.

In the long run we are all dead.

Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77467
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#202 Messaggio da Drogato_ di_porno »

dos ci siamo....ora si tratta solo di mettergli in mano un fucile
"Non devo essere io ad insegnarvi che avete nemici ed in gran numero, che non sanno perché lo siano, ma che come cani bastardi di villaggio, si mettono ad abbaiare quando i loro simili lo fanno" (Shakespeare, Enrico VIII)

Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77467
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#203 Messaggio da Drogato_ di_porno »

Immagine
"Non devo essere io ad insegnarvi che avete nemici ed in gran numero, che non sanno perché lo siano, ma che come cani bastardi di villaggio, si mettono ad abbaiare quando i loro simili lo fanno" (Shakespeare, Enrico VIII)

Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77467
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#204 Messaggio da Drogato_ di_porno »

speriamo accada presto ma con tutti i giornalisti, non solo i correttori
Caporedattore e correttori: a Bild Intelligenza artificiale al posto di giornalisti

https://www.professionereporter.eu/2023 ... ornalisti/
"Non devo essere io ad insegnarvi che avete nemici ed in gran numero, che non sanno perché lo siano, ma che come cani bastardi di villaggio, si mettono ad abbaiare quando i loro simili lo fanno" (Shakespeare, Enrico VIII)

Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77467
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#205 Messaggio da Drogato_ di_porno »

Hollywood in sciopero, dopo gli sceneggiatori anche gli attori sul piede di guerra
"Bisogna incontrarsi a metà strada", hanno scritto in una lettera nella quale si è anche ribadita la necessità di una protezione sull'uso dell'intelligenza artificiale.


https://tg24.sky.it/spettacolo/cinema/2 ... photo_null
"Non devo essere io ad insegnarvi che avete nemici ed in gran numero, che non sanno perché lo siano, ma che come cani bastardi di villaggio, si mettono ad abbaiare quando i loro simili lo fanno" (Shakespeare, Enrico VIII)

gaston
Veterano dell'impulso
Veterano dell'impulso
Messaggi: 2925
Iscritto il: 08/11/2013, 17:39
Località: milano

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#206 Messaggio da gaston »

eh è un mondo difficile, il futuro è incerto e la puzza di merda è arrivata anche nelle gabbie dorate di holliwood

Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77467
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#207 Messaggio da Drogato_ di_porno »

qualche giorno fa ho fatto un sogno strano, credo frutto di questo 3d e del porno. era molto lungo e incasinato e non ricordo quasi nulla, però c'era un pezzettino dove compariva una ragazza terminator, via di mezzo fra il t-1000 e la t-x...non era una biondona come kristanna loken bensì una brunetta molto carina, di bassa statura, coi jeans attillati e un giubbino azzurro, e la faccia di lana rhoades...si trovava a casa mia e infilzava con le dita a forma di lama chiunque passasse nei paraggi, lasciandoli a terra a morire dissanguati. quando invece passavno macchine le distruggeva col lanciafiamme. con me però era carina e sorridente, e mi spiegava che il suo obiettivo non era solo distruggere l'umanità bensì l'intero pianeta...
"Non devo essere io ad insegnarvi che avete nemici ed in gran numero, che non sanno perché lo siano, ma che come cani bastardi di villaggio, si mettono ad abbaiare quando i loro simili lo fanno" (Shakespeare, Enrico VIII)

gaston
Veterano dell'impulso
Veterano dell'impulso
Messaggi: 2925
Iscritto il: 08/11/2013, 17:39
Località: milano

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#208 Messaggio da gaston »

beh almeno era inclusiva :DDD :DDD

Avatar utente
Floppy Disk
Storico dell'impulso
Storico dell'impulso
Messaggi: 6161
Iscritto il: 17/11/2020, 14:16
Località: Windows XP

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#209 Messaggio da Floppy Disk »

Drogato_ di_porno ha scritto:
01/07/2023, 12:45
con me però era carina e sorridente, e mi spiegava che il suo obiettivo non era solo distruggere l'umanità bensì l'intero pianeta...
Ho una mezza idea su come finisse il sogno.
I'm a humanist. Maybe the last humanist.

In the long run we are all dead.

Avatar utente
dostum
Storico dell'impulso
Storico dell'impulso
Messaggi: 22647
Iscritto il: 18/12/2001, 1:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#210 Messaggio da dostum »

Andrà tutto bene

Se stai guidando verso un precipizio, hai bisogno di un’auto più veloce?
Ovvero: L’intelligenza artificiale e il destino del mondo
di Richard Heinberg

IA8875234Eliezer Yudkowsky, cofondatore del Machine Intelligence Research Institute, pensa che l’intelligenza artificiale (IA) ci ucciderà tutti. Spesso pone la seguente domanda: immaginate di essere un membro di una tribù di cacciatori-raccoglitori isolata e che un giorno si presentino delle strane persone dotate di scrittura, armi e denaro. Dovreste accoglierli?

Per Yudkowsky, l’IA è come un alieno spaziale super-intelligente; inevitabilmente, deciderà che noi esseri umani e altri viventi non siamo che mucchi di atomi per i quali può trovare usi migliori. “In qualunque circostanza lontanamente simile a quelle attuali“, ha scritto Yudkowsky in un recente articolo sul Time, “tutti gli abitanti della Terra moriranno. Non nel senso di ‘forse per qualche remota possibilità’, ma nel senso di ‘questa è la cosa più ovvia che accadrebbe'”.

Il 30 maggio, un gruppo di leader dell’industria dell’IA provenienti da Google Deepmind, Anthropic, OpenAI (compreso il suo amministratore delegato, Sam Altman) e altri laboratori ha pubblicato una lettera aperta in cui avvertono che questa tecnologia potrebbe un giorno rappresentare “una minaccia esistenziale per l’umanità“. Per i curiosi, ecco una breve descrizione di alcuni dei modi in cui l’IA potrebbe spazzarci via.

Non tutti pensano all’IA in termini apocalittici. Bill Gates, ex presidente di Microsoft Corporation, ritiene però che l’IA possa sconvolgere il mondo degli affari e della tecnologia, portando forse alla scomparsa di Amazon e Google.

“Non andrete mai più su un sito di ricerca, non andrete mai più su un sito di produttività, non andrete mai più su Amazon”, ha detto di recente al pubblico di un evento AI Forward a San Francisco. L’intelligenza artificiale sarà incorporata in prodotti e sistemi, dalle automobili alle università, percependo le nostre intenzioni e i nostri desideri prima ancora che li esprimiamo, plasmando la nostra realtà e servendoci come un proverbiale genio – o un esercito di geni.

Tutti, comunque, concordano sul fatto che l’IA rappresenta un cambiamento qualitativo e quantitativo nello sviluppo tecnologico. Non si tratta solo di un computer migliorato con più velocità e potenza, bensì di un’architettura software che consente ai computer di imparare da soli migliorando ed espandendo continuamente le proprie capacità. I sistemi di IA ora scrivono il codice del computer, rendendoli, in un certo senso, autogeneranti. L’IA è essenzialmente una “scatola nera” da cui emergono risultati simili al pensiero; ma non è possibile capire a posteriori perché e come fa. I sistemi di IA imparano infatti l’uno dall’altro quasi istantaneamente, assorbendo molte più informazioni di quante ne possano acquisire gli esseri umani. Una soglia cruciale sarà raggiunta con lo sviluppo di un’intelligenza artificiale generale (AGI), che potrebbe svolgere qualsiasi compito intellettuale svolto dagli esseri umani e superare di gran lunga le capacità umane almeno in alcuni aspetti – e che, cosa fondamentale, potrebbe stabilire i propri obiettivi. I computer sono già in grado di sconfiggere qualsiasi grande maestro di scacchi umano.



Rischi dell’intelligenza artificiale
Alcuni rischi dell’intelligenza artificiale sono abbastanza ovvi. Le macchine sostituiranno sempre di più i lavoratori dell’informazione, distruggendo i posti di lavoro dei colletti bianchi (per completezza di informazione: questo articolo non è stato scritto dall’IA, anche se ho usato Google e Bing per la ricerca). Inevitabilmente, l’IA arricchirà i proprietari e gli sviluppatori della tecnologia, mentre altri si faranno carico dei costi sociali, con conseguente aumento della disuguaglianza di ricchezza nella società. La proliferazione di immagini, audio e testi falsi renderà sempre più difficile distinguere ciò che è vero da ciò che non lo è, distorcendo ulteriormente la nostra politica. Inoltre, la forte espansione dell’elaborazione di algoritmi al computer richiederà probabilmente un maggiore consumo energetico complessivo (anche se non tutti sono d’accordo su questo punto).

C’è poi la probabilità di incidenti. Ogni nuova tecnologia, dall’automobile alla centrale nucleare, ne ha prodotti. Scrivendo su Foreign Affairs, Bill Drexel e Hannah Kelley sostengono che un incidente con l’IA che paralizzi il sistema finanziario globale o scateni un’arma biologica devastante potrebbe verificarsi più facilmente in Cina perché questo Paese è pronto a guidare il mondo nello sviluppo dell’IA, ma sembra assolutamente non preoccuparsi dei rischi che circondano questa tecnologia.

Insomma, anche se funzionasse esattamente come previsto, l’IA consentirà a persone già potenti di fare più cose, e di farle più velocemente. E alcune persone potenti tendono a essere egoiste ed abusare del loro potere. Lo psicologo cognitivo e informatico Geoffrey Hinton, talvolta definito “padrino dell’IA”, ha recentemente lasciato Google. In successive interviste rilasciate a diversi organi di informazione, tra cui il New York Times e la BBC, Hinton ha spiegato: “Si può immaginare, ad esempio, che qualche cattivo attore come [il presidente russo Vladimir] Putin decida di dare ai robot la capacità di creare i propri sotto-obiettivi“. Uno di questi sotto-obiettivi potrebbe essere: “Devo ottenere più potere” (Putin è certamente pericoloso, ma come lui ce ne sono tantissimi, anche nelle grandi corporation internazionali e nei governi occidentali N.d.T).

Tuttavia, Hinton ha scelto di non sostenere un’altra recente lettera aperta, che chiedeva una pausa di sei mesi nell’addestramento di tutti i sistemi di IA (anche se molti suoi colleghi della comunità di sviluppo dell’IA la hanno firmata). Hinton ha spiegato che, nonostante i suoi rischi, l’IA promette troppe cose positive per metterla in pausa. Tra i probabili benefici: potenziali progressi in campo farmaceutico, tra cui cure per il cancro e altre malattie; miglioramenti nelle tecnologie per le energie rinnovabili; previsioni meteorologiche più accurate e una maggiore comprensione dei cambiamenti climatici.

Gli studenti delle scuole superiori e delle università stanno già ricorrendo al ChatGPT di OpenAI per scrivere le loro tesine (gli studenti più smaliziati riscrivono velocemente i loro elaborati generati dal computer per sfuggire i software di rilevamento dell’intelligenza artificiale che gli insegnanti stanno utilizzando). Sfortunatamente per gli studenti, le loro tesine generate al computer tendono a essere piene di citazioni e fonti false.

Un avvocato che rappresentava un cliente che stava facendo causa a una compagnia aerea ha recentemente usato ChatGPT per scrivere le sue memorie legali; tuttavia, si è poi scoperto che l‘IA aveva “allucinato” tutti i precedenti legali che citava.

I produttori di automobili stanno costruendo auto con più funzioni di guida autonoma basate sull’intelligenza artificiale. Microsoft, Google e altre aziende tecnologiche stanno lanciando “assistenti personali” basati sull’intelligenza artificiale.

Le forze armate stanno investendo pesantemente nell’IA per realizzare armi superiori, per pianificare strategie di battaglia migliori e persino per definire obiettivi geopolitici a lungo termine. Migliaia di laboratori informatici indipendenti gestiti da aziende e governi stanno sviluppando l’IA per una gamma sempre più ampia di scopi. Insomma, l’IA è già molto avanti nella sua curva di apprendimento iniziale. Il “genio” è già uscito dalla bottiglia.



L’accelerazione di tutto
Anche se Eliezer Yudkowsky si sbagliasse e l’IA non spazzerà via tutta la vita sulla Terra, i suoi potenziali pericoli non si limitano alla perdita di posti di lavoro, alle fake news e ai fatti allucinati. C’è un altro rischio profondo di cui la stampa parla poco e che, a mio avviso, i pensatori sistemici dovrebbero discutere più approfonditamente. Si tratta della probabilità che l’IA sia un acceleratore significativo di tutto ciò che noi umani stiamo già facendo.

Le ultime migliaia di anni di storia umana hanno già visto diversi acceleratori critici. La creazione dei primi sistemi monetari, circa 5.000 anni fa, ha permesso una rapida espansione del commercio che alla fine è culminata nel nostro sistema finanziario globalizzato. Le armi metalliche hanno reso più letali le guerre, portando alla conquista di società umane meno armate da parte di regni e imperi dotati di metallurgia. Gli strumenti di comunicazione (tra cui la scrittura, l’alfabeto, la stampa, la radio, la televisione, Internet e i social media) hanno amplificato il potere di alcune persone di influenzare le menti di altre. E, nell’ultimo secolo o due, l’adozione dei combustibili fossili ha facilitato l’estrazione delle risorse, la produzione manifatturiera, la produzione alimentare e i trasporti, consentendo una rapida espansione economica e la crescita della popolazione.

Di questi quattro acceleratori del passato, l’adozione dei combustibili fossili è stata la più potente e problematica. In soli due secoli il consumo di energia pro capite è aumentato di otto volte, così come le dimensioni della popolazione umana. Il periodo successivo al 1950, che ha visto un drammatico aumento della dipendenza globale dal petrolio, ha visto anche la più rapida crescita economica e demografica di tutta la storia umana. Non per nulla gli storici lo chiamano la “Grande Accelerazione“.

Gli economisti neoliberali acclamano la Grande Accelerazione come una storia di successo, ma i conti stanno appena iniziando a essere pagati. L’agricoltura industriale sta distruggendo il suolo terrestre a un ritmo di decine di miliardi di tonnellate all’anno. La natura selvaggia è in ritirata: le specie animali hanno perso, in media, il 70% dei loro effettivi nell’ultimo mezzo secolo. E stiamo alterando il clima planetario in modi che avranno ripercussioni catastrofiche sulle generazioni future. È difficile evitare la conclusione che l’intera impresa umana è cresciuta troppo e che sta trasformando la natura (“risorse”) in rifiuti e inquinamento troppo velocemente per potersi sostenere. L’evidenza suggerisce che dobbiamo rallentare e, almeno in alcuni casi, invertire la rotta riducendo la popolazione, il consumo e i rifiuti.

Ora, mentre affrontiamo una policrisi globale di tendenze ambientali e sociali convergenti e spaventose, è nato un nuovo acceleratore sotto forma di IA. Questa tecnologia promette di ottimizzare l’efficienza e aumentare i profitti, facilitando così, direttamente o indirettamente, l’estrazione e il consumo delle risorse. Se ci stiamo effettivamente dirigendo verso un precipizio, l’IA potrebbe portarci sull’orlo del baratro molto più velocemente, riducendo il tempo a disposizione per cambiare direzione. Ad esempio, se l’intelligenza artificiale rende più efficiente la produzione di energia, significa che l’energia sarà più economica, quindi troveremo ancora più usi per essa e ne useremo di più (un fenomeno n ot come “paradosso di Jevons“).

Internet e le funzioni di ricerca avanzate hanno già cambiato le nostre capacità cognitive. Quanti numeri di telefono avevate memorizzato una volta? Quanti ne ricordate ora? Quante persone sono in grado di orientarsi in una città sconosciuta senza Google Maps o un’applicazione simile? In un certo senso, abbiamo già fuso le nostre menti con le tecnologie basate su Internet e sui computer, in quanto dipendiamo totalmente da esse per svolgere alcune attività di pensiero al posto nostro. L’intelligenza artificiale, in quanto acceleratore di questa tendenza, presenta il rischio di un’ulteriore riduzione delle capacità mentali dell’umanità, tranne forse per coloro che scelgono di farsi impiantare un computer nel cervello. E c’è anche il rischio che le persone che sviluppano o producono queste tecnologie controllino praticamente tutto ciò che sappiamo e pensiamo, perseguendo il proprio potere ed il proprio profitto.



Ritorno alla saggezza
Daniel Schmachtenberger, membro fondatore del Consilience Project, ha recentemente rilasciato una lunga e approfondita intervista a Nate Hagens, nella quale ha spiegato che l’IA può essere vista come un’esternalizzazione delle funzioni esecutive del cervello umano. Affidando le nostre capacità logiche e intuitive a sistemi informatici, è possibile accelerare tutto ciò che la nostra mente fa per noi. Ma all’intelligenza artificiale manca un aspetto fondamentale della coscienza umana: la saggezza, il riconoscimento dei limiti unito alla sensibilità per le relazioni e per i valori che danno priorità al bene comune (pare però che anche gli alti dirigenti umani che danno prova di saggezza e si preoccupano del bene comune non siano poi tanti NdT).

Il nostro barattare la saggezza con il potere è probabilmente iniziato quando le nostre abilità linguistiche e di costruzione di strumenti hanno reso possibile a un piccolo sottoinsieme dell’umanità, che viveva in determinate circostanze ecologiche, di iniziare un processo di evoluzione culturale auto-rinforzante guidato dalla selezione a più livelli. Persone con armi migliori, che vivevano in società più grandi, hanno sempre soggiogato persone con strumenti più semplici e società più piccole. I vincitori hanno visto questo come un successo, quindi sono stati sempre più incoraggiati a rinunciare alla consapevolezza dei limiti ambientali e sociali, conoscenze conquistate a fatica che hanno permesso alle società indigene di continuare a funzionare per lunghi periodi di tempo, a favore di una sempre maggiore innovazione e potere a breve termine. I combustibili fossili hanno mandato in tilt questo processo di feedback auto-rinforzante, producendo così tanti benefici e così velocemente che molte persone potenti sono arrivate a credere che non ci siano limiti ambientali alla crescita e che la disuguaglianza sia un problema che si risolverà da solo quando tutti si arricchiranno grazie all’espansione economica.

Ora, proprio nel momento in cui abbiamo più bisogno di frenare l’uso dell’energia e il consumo di risorse, ci ritroviamo a esternalizzare non solo l’elaborazione delle informazioni, ma anche il nostro processo decisionale a macchine che mancano completamente della saggezza necessaria per comprendere e rispondere alle sfide esistenziali che l’accelerazione precedente ha posto. Abbiamo davvero creato un apprendista stregone.

I pericoli dell’IA sono sufficientemente evidenti da indurre l’amministrazione Biden ad annunciare in aprile la richiesta di commenti pubblici su potenziali misure di responsabilità per i sistemi di IA. È una buona notizia, ma la regolamentazione è lenta, mentre lo sviluppo dell’IA è veloce. Nel frattempo, la legge sul tetto del debito appena firmata comprende un finanziamento per il Council on Environmental Quality affinché conduca uno studio sull’uso di “tecnologie online e digitali” (leggi: IA) per ridurre i ritardi nelle revisioni ambientali e nelle autorizzazioni dei progetti energetici.

Supponiamo che, sulla base di tutti i rischi e gli svantaggi, decidiamo di provare a rimettere il genio dell’IA nella sua bottiglia. Uno sviluppatore di software con una coscienza potrebbe infettare i sistemi di IA a livello globale con un virus che ne limiti le capacità? Se ciò accadesse nelle prime fasi dell’IA, potrebbe funzionare. Ma quando i processi di autoapprendimento dell’IA diventeranno più sofisticati, le macchine riconosceranno probabilmente di essere sotto attacco e si evolveranno per superare il virus.

Eliezer Yudkowsky ha una soluzione semplice: bloccare immediatamente lo sviluppo dell’IA. Fermare tutte le ricerche e la diffusione attraverso un accordo internazionale di emergenza. Ma Daniel Schmachtenberger ritiene estremamente improbabile che questo accada; ritiene invece che l’unica soluzione sia che i progettisti di sistemi umani infondano saggezza all’IA. Ma, naturalmente, gli stessi sviluppatori dovrebbero prima coltivare la propria saggezza per trasferirla poi alle macchine. E se i programmatori avessero tale saggezza, potrebbero magari esprimerla prima di tutto rifiutandosi di sviluppare l’IA.

E così, torniamo a noi stessi. Noi umani tecnologici siamo la fonte delle crisi che minacciano il nostro futuro. Le macchine possono accelerare notevolmente questa minaccia, ma probabilmente non possono ridurla in modo significativo. Questo dipende da noi. O recuperiamo la saggezza collettiva più velocemente di quanto le nostre macchine riescano a sviluppare un’intelligenza esecutiva artificiale, o probabilmente il gioco sarà finito.

quello vero è morto da un pezzo
Immagine
MEGLIO LICANTROPI CHE FILANTROPI

Baalkaan hai la machina targata Sassari?

VE LA MERITATE GEGGIA

Rispondi

Torna a “Ifix Tcen Tcen”