
(OT) Metaverso, droidi e varie porcherie futuristiche
Moderatori: Super Zeta, AlexSmith, Pim, Moderatore1
Re: (OT) Metaverso, droidi e varie porcherie futuristiche

MEGLIO LICANTROPI CHE FILANTROPI
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
bell'immagine Dos 

Re: (OT) Metaverso, droidi e varie porcherie futuristiche
magari si sfogassero con lo sport parteciperanno alle olimpiadi?


MEGLIO LICANTROPI CHE FILANTROPI
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
- Drogato_ di_porno
- Storico dell'impulso
- Messaggi: 77842
- Iscritto il: 20/06/2002, 2:00
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
a breve reddito di cittadinanza per i benzinai
“E' vero che in Russia i bambini mangiavano i comunisti?"
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”
- Paperinik
- Storico dell'impulso
- Messaggi: 29243
- Iscritto il: 31/08/2002, 2:00
- Località: In giro per la mia mente
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
Voglio le luride che si materializzano in camera da letto
(Adnkronos) - Nvidia ha annunciato la disponibilità dei suoi microservizi di intelligenza artificiale generativa, Nvidia Ace, destinati ad accelerare la prossima ondata di esseri umani digitali. Queste tecnologie stanno già trasformando settori come il servizio clienti, il gaming e l'assistenza sanitaria, semplificando la creazione, l'animazione e la gestione di avatar digitali realistici per un'interazione più naturale e coinvolgente. Gli esseri umani digitali sono rappresentazioni virtuali altamente realistiche di persone, create attraverso tecnologie avanzate di intelligenza artificiale e grafica. Questi avatar sono progettati per interagire con gli utenti in modo molto simile agli esseri umani reali, utilizzando il riconoscimento vocale, l'animazione facciale e persino gesti corporei per rendere le conversazioni e le interazioni più immersive e naturali. Grazie a Nvidia Ace, queste interazioni diventano ancora più sofisticate, avvicinandoci a un futuro in cui interagire con i computer sarà naturale come parlare con una persona.
Nvidia Ace include diverse tecnologie avanzate che lavorano insieme per creare questi esseri umani digitali. Ad esempio, Nvidia Riva fornisce riconoscimento automatico del parlato, conversione testo-parlato e traduzione automatica neurale. Queste funzionalità permettono agli avatar di comprendere e rispondere alle richieste vocali in modo preciso e contestuale. Nvidia Nemotron, un modello di linguaggio avanzato, contribuisce alla comprensione del linguaggio e alla generazione di risposte appropriate, migliorando ulteriormente l'interazione. Un altro elemento chiave è Nvidia Audio2Face, che consente l'animazione facciale realistica basata su tracce audio. Questo significa che gli avatar possono esprimere emozioni e rispondere visivamente alle conversazioni, rendendo l'interazione più vivida e autentica. Inoltre, Nvidia Omniverse RTX permette di simulare pelle e capelli realistici in tempo reale, migliorando ulteriormente l'aspetto degli avatar.
Nvidia ha anche introdotto nuove tecnologie come Audio2Gesture, che genera gesti corporei basati su tracce audio, e Nemotron-3 4.5B, un modello linguistico di piccole dimensioni progettato per l'inferenza IA su dispositivi RTX con bassa latenza. Jensen Huang, fondatore e CEO di Nvidia, ha dichiarato: "Gli esseri umani digitali rivoluzioneranno le industrie. I progressi nei modelli di linguaggio multimodali e nella grafica neurale, forniti da Nvidia Ace al nostro ecosistema di sviluppatori, ci avvicinano a un futuro di computazione basata sulle intenzioni, dove interagire con i computer sarà naturale come interagire con gli esseri umani". In precedenza, Nvidia ha fornito Ace come microservizi NIM per i data center. Ora, sta espandendo questa offerta con Ace PC NIM per l'implementazione su una base installata di 100 milioni di PC e laptop RTX AI. Questa espansione include il modello Nemotron-3 4.5B, progettato per funzionare su dispositivi con livelli di precisione simili ai grandi modelli di linguaggio eseguiti nel cloud.
"E' impossibile", disse il cervello.
"Provaci!", sussurrò il cuore.
"Vai via, brutto!", urlò la ragazza.
06/06/2019 FIRENZE LIBERA
https://www.youtube.com/watch?v=0Zp9AmCfWbI
"Provaci!", sussurrò il cuore.
"Vai via, brutto!", urlò la ragazza.
06/06/2019 FIRENZE LIBERA
https://www.youtube.com/watch?v=0Zp9AmCfWbI
- Drogato_ di_porno
- Storico dell'impulso
- Messaggi: 77842
- Iscritto il: 20/06/2002, 2:00
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
è la grande utopia papero
“E' vero che in Russia i bambini mangiavano i comunisti?"
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
Verso Skynet
L’Aeronautica Militare degli Stati Uniti (USAF) e la Space Force hanno annunciato il lancio del loro strumento di intelligenza artificiale (AI) generativa chiamato NIPRGPT. Acronimo di Non-classified Internet Protocol Generative Pre-training Transformer, il nuovo strumento è stato progettato per aiutare il Dipartimento dell’Aeronautica Militare (DAF) a capire come l’AI può far progredire l’accesso alle informazioni. Praticamente di utilizza una AI per capire come la AI può far migliorare l’accesso alle informazioni.
Come le IA generative accessibili al pubblico (ChatGPT, ecc.), NIPRGPT è un chatbot con risposte simili a quelle umane. L’adozione di questa IA è destinata a contribuire agli sforzi di modernizzazione in corso per i servizi.
NIPRGPT è stato sviluppato in collaborazione con l’Air Force Research Laboratory per i “Guardiani”, cioè i membri della Space Force, gli avieri e i dipendenti civili.
“Le nostre recenti tavole rotonde GenAI con l’industria e il mondo accademico ci hanno dimostrato che si tratta di un campo in attiva crescita”, ha dichiarato Venice Goodwine, responsabile dell’informazione del DAF, in un annuncio del Dipartimento.
AI per l’Aeronautica Militare
“È il momento di dare ai nostri Aviatori e Guardiani la flessibilità necessaria per sviluppare le competenze necessarie in parallelo. In questo momento sono in corso molteplici sforzi di modernizzazione in tutto il governo federale e all’interno del DAF per mettere gli strumenti nelle mani della forza lavoro. Questo strumento è un altro di questi sforzi“, ha aggiunto.
Secondo l’annuncio, la piattaforma assisterà il personale nei compiti di comunicazione, ricerca e codifica, rimanendo connessi a un ambiente online sicuro.
Breaking Defense riferisce che Chandra Donelson, responsabile ad interim dei dati e dell’intelligenza artificiale del DAF, ha dichiarato durante una tavola rotonda con i media che, sebbene la piattaforma sia ancora in fase di sviluppo, il NIPRGPT ha mostrato risultati promettenti.
“Il NIPRGPT è un ponte fondamentale per garantire che i migliori strumenti che abbiamo arrivino nelle mani dei nostri team, mentre gli strumenti commerciali più grandi navigano tra i nostri intensi parametri di sicurezza e altri processi“, ha detto Alexis Bonnell, Chief Information Officer dell’AFRL.
Cambiare il modo in cui interagiamo con la conoscenza non strutturata non è una perfezione istantanea; ognuno di noi deve imparare a usare gli strumenti, a interrogarli e a ottenere i risultati migliori. Il NIPRGPT consentirà agli aviatori e ai guardiani di esplorare e costruire competenze e familiarità man mano che saranno disponibili strumenti più potenti”, ha aggiunto. Quindi lo strumento deve semplicemente essere considerato come prodromico allo sviluppo di strumenti più avanzati.
Il NIPRGBT sarà uno strumento prezioso per il primo approccio alla AI
Bonnell ha anche dichiarato che l’Aeronautica Militare non ha ancora scelto un fornitore o un approccio specifico mentre sviluppa i criteri per il NIPRGBT. Tuttavia, quando i membri del servizio inizieranno a usare NIPRGBT, il dipartimento prevede di collaborare con i partner commerciali per valutare se il dipartimento dell’Air Force necessita di una AI generativa e di quale livello. Questa è solo una prima sperimentazione.
“Speriamo che non solo questo dia il via alla curiosità e alla sperimentazione che vediamo nei nostri utenti, ma anche che, per quei fornitori che hanno dei modelli, ci dia modo di testarli effettivamente. Ci aspettiamo che alcuni modelli siano ottimi per alcuni casi d’uso e non altrettanto per altri“, ha detto Bonnel durante la tavola rotonda.
Il NIPRGPT deriva dalla piattaforma software Dark Saber, sviluppata presso l’Air Force Research Laboratory Information Directorate. Il progetto Dark Saber è composto da militari dell’Aeronautica Militare e della Forza Spaziale, e la sua missione è quella di creare software e capacità di prossima generazione e distribuibili.
PRIMA CHE SIA TROPPO TARDI!

L’Aeronautica Militare degli Stati Uniti (USAF) e la Space Force hanno annunciato il lancio del loro strumento di intelligenza artificiale (AI) generativa chiamato NIPRGPT. Acronimo di Non-classified Internet Protocol Generative Pre-training Transformer, il nuovo strumento è stato progettato per aiutare il Dipartimento dell’Aeronautica Militare (DAF) a capire come l’AI può far progredire l’accesso alle informazioni. Praticamente di utilizza una AI per capire come la AI può far migliorare l’accesso alle informazioni.
Come le IA generative accessibili al pubblico (ChatGPT, ecc.), NIPRGPT è un chatbot con risposte simili a quelle umane. L’adozione di questa IA è destinata a contribuire agli sforzi di modernizzazione in corso per i servizi.
NIPRGPT è stato sviluppato in collaborazione con l’Air Force Research Laboratory per i “Guardiani”, cioè i membri della Space Force, gli avieri e i dipendenti civili.
“Le nostre recenti tavole rotonde GenAI con l’industria e il mondo accademico ci hanno dimostrato che si tratta di un campo in attiva crescita”, ha dichiarato Venice Goodwine, responsabile dell’informazione del DAF, in un annuncio del Dipartimento.
AI per l’Aeronautica Militare
“È il momento di dare ai nostri Aviatori e Guardiani la flessibilità necessaria per sviluppare le competenze necessarie in parallelo. In questo momento sono in corso molteplici sforzi di modernizzazione in tutto il governo federale e all’interno del DAF per mettere gli strumenti nelle mani della forza lavoro. Questo strumento è un altro di questi sforzi“, ha aggiunto.
Secondo l’annuncio, la piattaforma assisterà il personale nei compiti di comunicazione, ricerca e codifica, rimanendo connessi a un ambiente online sicuro.
Breaking Defense riferisce che Chandra Donelson, responsabile ad interim dei dati e dell’intelligenza artificiale del DAF, ha dichiarato durante una tavola rotonda con i media che, sebbene la piattaforma sia ancora in fase di sviluppo, il NIPRGPT ha mostrato risultati promettenti.
“Il NIPRGPT è un ponte fondamentale per garantire che i migliori strumenti che abbiamo arrivino nelle mani dei nostri team, mentre gli strumenti commerciali più grandi navigano tra i nostri intensi parametri di sicurezza e altri processi“, ha detto Alexis Bonnell, Chief Information Officer dell’AFRL.
Cambiare il modo in cui interagiamo con la conoscenza non strutturata non è una perfezione istantanea; ognuno di noi deve imparare a usare gli strumenti, a interrogarli e a ottenere i risultati migliori. Il NIPRGPT consentirà agli aviatori e ai guardiani di esplorare e costruire competenze e familiarità man mano che saranno disponibili strumenti più potenti”, ha aggiunto. Quindi lo strumento deve semplicemente essere considerato come prodromico allo sviluppo di strumenti più avanzati.
Il NIPRGBT sarà uno strumento prezioso per il primo approccio alla AI
Bonnell ha anche dichiarato che l’Aeronautica Militare non ha ancora scelto un fornitore o un approccio specifico mentre sviluppa i criteri per il NIPRGBT. Tuttavia, quando i membri del servizio inizieranno a usare NIPRGBT, il dipartimento prevede di collaborare con i partner commerciali per valutare se il dipartimento dell’Air Force necessita di una AI generativa e di quale livello. Questa è solo una prima sperimentazione.
“Speriamo che non solo questo dia il via alla curiosità e alla sperimentazione che vediamo nei nostri utenti, ma anche che, per quei fornitori che hanno dei modelli, ci dia modo di testarli effettivamente. Ci aspettiamo che alcuni modelli siano ottimi per alcuni casi d’uso e non altrettanto per altri“, ha detto Bonnel durante la tavola rotonda.
Il NIPRGPT deriva dalla piattaforma software Dark Saber, sviluppata presso l’Air Force Research Laboratory Information Directorate. Il progetto Dark Saber è composto da militari dell’Aeronautica Militare e della Forza Spaziale, e la sua missione è quella di creare software e capacità di prossima generazione e distribuibili.
PRIMA CHE SIA TROPPO TARDI!

MEGLIO LICANTROPI CHE FILANTROPI
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
- Paperinik
- Storico dell'impulso
- Messaggi: 29243
- Iscritto il: 31/08/2002, 2:00
- Località: In giro per la mia mente
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
Cina: azienda a lavoro per produzione di "sex robot" dotati di IA
https://www.ilsoftware.it/cina-azienda- ... ati-di-ia/
https://www.ilsoftware.it/cina-azienda- ... ati-di-ia/
"E' impossibile", disse il cervello.
"Provaci!", sussurrò il cuore.
"Vai via, brutto!", urlò la ragazza.
06/06/2019 FIRENZE LIBERA
https://www.youtube.com/watch?v=0Zp9AmCfWbI
"Provaci!", sussurrò il cuore.
"Vai via, brutto!", urlò la ragazza.
06/06/2019 FIRENZE LIBERA
https://www.youtube.com/watch?v=0Zp9AmCfWbI
- Drogato_ di_porno
- Storico dell'impulso
- Messaggi: 77842
- Iscritto il: 20/06/2002, 2:00
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
“E' vero che in Russia i bambini mangiavano i comunisti?"
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
è sempre a fin di bene l'atomica,la guerra batteriologica......................................

Terminata la lettura delle scarse 150 pp. del volume di Stefano Isola, A fin di bene: il nuovo potere della ragione artificiale (Asterios, 2023), la sensazione è di inquietudine. Il dibattito sulle potenzialità della cosiddetta “intelligenza artificiale” (AI) è salito al punto da echeggiare i temi della fantascienza sulla “rivolta delle macchine”. Impressiona il fatto che la denuncia dei rischi venga non da qualche sorta di “primitivista”, ma da imprenditori del settore e da ricercatori. “Il 49% dei ricercatori di intelligenza artificiale ha affermato che l’IA rappresenta una minaccia esistenziale per l’umanità, quasi al livello di un disastro nucleare di larga scala” (sic!). Quest’ultimo passo è citato nel testo del prof. Isola (p. 60), proveniente da un membro della Commissione Trilaterale.
Oggi la AI è ovunque: dai risultati dei motori di ricerca al funzionamento dei social, dalle armi alla ricerca scientifica, con numerose applicazioni quotidiane, con una ampiezza pari alla digitalizzazione del mondo. Questo agile volume dedicato alle trasformazioni tecnologiche legate ad essa entra in parte nello specifico di diverse innovazioni mostrandone le problematiche e i rischi.
Un punto di partenza è che l’impostazione del libro rifugge da un approccio utilitaristico, nell’ambito del quale le visioni critiche sono facilmente tacitate, a fronte delle comodità del digitale, come passatiste, impaurite, reazionarie. L’autore dichiara invece di porsi fuori da un bilancio di vantaggi – svantaggi per svolgere i suoi ragionamenti su un altro piano, che corrisponde grosso modo all’interrogativo: quale è il senso profondo di queste innovazioni? In che modo possono influire sulla vita umana in generale (di tutti, quindi, al di là del soggetto che usandole al momento ne trae un’utilità fattizia)?
I nuclei argomentativi del testo riguardano da un lato le caratteristiche dei sistemi odierni basati sulla AI, dall’altro le loro ricadute sociali, e fra le une e le altre c’è un nesso causale molto forte.
Per quanto riguarda il primo punto, come viene descritto nel capitolo Una innovazione postscientifica, il mondo della AI è stato costruito con elementi di ricerca scientifica, ma alberga al centro stesso del suo funzionamento un nucleo di irrazionalità: il funzionamento delle cd. “reti neurali” a più livelli resta in parte misterioso anche per gli stessi costruttori: in gran parte la macchina si “addestra” da sola con la mera potenza del numero di tentativi e fallimenti. Ma nei suoi singoli passaggi il processo resta imperscrutabile.
Questo ha a che fare con la necessità dei “big data”: la AI ingoia una quantità enorme di dati per poter funzionare. Ma anche a tal riguardo abbiamo una modalità assai poco “scientifica”. In che senso?
Il metodo scientifico si afferma con la selezione di una porzione della realtà per scremarne gli elementi inessenziali – così, per la caduta dei gravi si mettono gli oggetti sotto vuoto, eliminando l’aria e l’attrito. La AI procede invece cercando delle correlazioni fra una massa abnorme di dati, sostituendo la selezione con la mera potenza di calcolo, ed i risultati sono accettati solo perché sono funzionali, ma senza capire davvero il perché: “le tecnoscienza tendono a manipolare il mondo senza comprenderlo” (p. 80).
Facciamo un altro esempio. Nelle scienze statistiche il campione viene scelto secondo una selezione secondo criteri “scientifici”. Un sondaggio serio per capire le inclinazioni politiche non può basarsi solo su cittadini di città governate da decenni dal Pd come Firenze o Bologna, ma deve sceglierli tra centri diversi, più uniformemente differenziati sull’orientamento politico prevalente. Coi big data invece si elaborano dati senza nessuna scelta separativa, in forza che il numero in sé dia delle indicazioni valide. Il risultato talvolta è che escono correlazioni a caso, potendosi fare associazioni in cui compare tutto e il contrario di tutto. Alcuni esempi ne fanno intravedere i possibili svarioni, come un rapporto fra il numero degli annegati caduti da una barca e quello dei matrimoni (sic!), o fra il numero di divorzi e il consumo pro capite di margarina! Questi esempi, ovviamente, non persuaderebbero nessuno. Ma in altri campi non è così facile la smentita,come le prescrizioni nutritive da rotocalco: “mangiate kiwi la sera per dormire meglio”. Il punto centrale è che la ricerca di correlazioni si basa sulla mera potenza di calcolo che non necessita di un vero quadro concettuale alle spalle.
Il passaggio dalla statistica tradizionale alla più moderna e smart data science si declina anche in senso operativo. Per esempio una estrazione di dati sulle parole nei commenti dei social (facebook, X, ecc.) potrebbe essere usata per vedere le reazioni a qualche esternazione in campagna elettorale per correggere il tiro, armonizzando (illusoriamente) il discorso con l’effetto prodotto a livello comunicativo. Molti parlerebbero, a tal proposito, di manipolazione.
Quanto alle conseguenze, si ha un curioso capovolgimento della narrativa corrente sulla AI. Nella fantascienza, per esempio, i problemi sorgono dal fatto che la macchina diventi sempre più simile all’uomo. Secondo l’autore è l’opposto, i guai sorgono invece da una divergenza insanabile. Per esempio, mentre le macchine sono bravissime in compiti difficili per l’essere umano, come calcoli complessi e memorizzazione di dati, incontrano seri ostacoli per attività banali (per noi) come camminare evitando gli ostacoli. Possono riconoscere gli oggetti, ma se per il bimbo – per esempio – l’acquisizione che un oggetto posto dietro un altro non scompare dall’esistenza è banale, per la AI è un ostacolo quasi insormontabile. In linea generale la macchina non riesce a cavarsela o a performare bene con pochi dati e tante variabili; ed infatti per funzionare ha bisogno di valanghe di dati.
Si tratta dello sbocco di un fallimento, quello di riprodurre meccanicamente il funzionamento della mente umana del dopoguerra; tale tentativo, che incorpora gli assunti di alcune scuole di pensiero in voga in quegli anni (comportamentismo, cognitivismo, biologismo, che in generale tendono a mutilare la complessità umana facendo della persona un “automa complesso”) vede un fiasco totale, ma resta il progetto di una progressiva informatizzazione della società. La soluzione aggira tale problema puntando sulla potenza materiale di calcolo, ma con risultati altalenanti.
Perché questo è importante per le ricadute pratche? il capitolo 12, Disallineamento e instabilità, lo chiarisce con nettezza: dato che gli algoritmi funzionano in contesti stabili, con variabili definite e continuative, si dovrà disciplinare il mondo sociale in modo da costruire un contesto adeguato; anche per il comportamento umano.
In termini più pop: non dobbiamo tanto temere che Skynet divenga troppo simile a noi, ma che il nostro mondo venga piallato in modo da conformarlo ad una versione di Skynet non particolarmente in gamba.
Gli esempi con cui le varie AI diventano sempre più elementi direttivi sono sempre più numerosi: dall’uso nei mercati finanziari ai tribunali (algoritmi che presumono di prevedere la possibile recidivia!), dalla salute alla scuola. Nel libro c’è un focus specifico su questi ultimi casi. Un saggio corposo è avvenuto durante il covid con la didattica a distanza, col largo uso di piattaforme private. L’ossessiva rincorsa alla digitalizzazione e alla centralità dell’uso di apparati tecnologici – tanto cara al PNRR di Draghi – esalta il ruolo dei fornitori aziendali, riducendo al tempo stesso il ruolo degli insegnanti quali meri “facilitatori tecnologici”.
Il senso più profondo del testo è attivare un dibattito verso tali mutazioni, che paiono dirigerci verso un mondo – alla fin fine – meno umano. Se per umano si intende lo spazio di imprevedibilità, il fiorire della creatività nel discorso condiviso con una comunità. Di contro a un assetto completamente omologato, robotizzato, fitto di decisioni procedurali indiscutibili – un assaggio delle quali lo si vede nella sospensione degli account dei social: non c’è un qualcuno cui rivolgersi, ma un muro di una procedura tecnologica assoluta.
Chi scrive vede in queste prospettive non solo una ragione profonda di tante dinamiche nocive – come le tecniche di guerra contemporanea. Ma si trova scaraventato verso i suoi vent’anni al corso di filosofia sul mind-body problem, l’annoso quesito filosofico della possibilità di ridurre l’esistenza umana a alcunché di calcolabile, misurabile, controllabile. Al tempo, con l’ermeneutica e scuole simili in grande spolvero, sembrava una prospettiva disperatamente limitata, gravata da una antropologia deprimente oltre che fallace, destinata ad una marginalità irredimibile. Ed invece ce la troviamo nei posti di comando a dirigere il mondo, spalleggiata dalla corporatocrazia più odiosa e pronta ad approfondire la sua indiscutibilità; ben bardata da un senso di modernità smart e accarezzata dall’europeismo da establishment.
In sintesi: punto forte del libro è un rovesciamento di prospettiva: mentre le critiche antitecnologiche sono spesso bollate come passatiste e antiscientifiche, qui è la stessa AI accusata di aver voltato le spalle alla scienza.
Il punto debole è che non riesce a dare spazio alle determinanti geopolitiche e culturali. Gli esiti descritti sono in pieno sviluppo in Occidente, ma nel resto del mondo il contesto è diverso. Anche se la Cina sviluppa anch’essa tali tecnologie il controllo politico su di esse è abbastanza diverso dalla alleanza con la corporatocrazia vigente nel blocco euroatlantico. Ovviamente ciò non significa che essa o qualche altra potenza non allineata alla oramai barcollante egemonia Usa siano delle isole di libertà o modelli da imitare. Ma il pluralismo di esperienze aiuta ad avere una prospettiva meno soffocante. Alla fin fine tanto sul piano teorico quanto sulla sua declinazione sociale le AI sono legate alla visione occidentale, e le altre tecnologie che si sono diffuse nel mondo non hanno reso tutti gli essere umani americani o europei. Chiaramente una rivolta dal basso nei paesi nei paesi euroatlantici sarebbe l’opzione più auspicabile, ma se la resistenza oggi è nel migliore dei casi la conservazione di nicchie, resta la prospettiva di un mondo troppo vasto e complesso per essere costretto da una suprema reductio ad unum tecnocratica. Anche considerando che paesi, assai meno ricchi e avanzati di Usa e Ue, mostrano di non poter essere assimilati con facilità; come la Russia che è in guerra quasi aperta col blocco euroatlantico, e non pare cavarsela così male.


Terminata la lettura delle scarse 150 pp. del volume di Stefano Isola, A fin di bene: il nuovo potere della ragione artificiale (Asterios, 2023), la sensazione è di inquietudine. Il dibattito sulle potenzialità della cosiddetta “intelligenza artificiale” (AI) è salito al punto da echeggiare i temi della fantascienza sulla “rivolta delle macchine”. Impressiona il fatto che la denuncia dei rischi venga non da qualche sorta di “primitivista”, ma da imprenditori del settore e da ricercatori. “Il 49% dei ricercatori di intelligenza artificiale ha affermato che l’IA rappresenta una minaccia esistenziale per l’umanità, quasi al livello di un disastro nucleare di larga scala” (sic!). Quest’ultimo passo è citato nel testo del prof. Isola (p. 60), proveniente da un membro della Commissione Trilaterale.
Oggi la AI è ovunque: dai risultati dei motori di ricerca al funzionamento dei social, dalle armi alla ricerca scientifica, con numerose applicazioni quotidiane, con una ampiezza pari alla digitalizzazione del mondo. Questo agile volume dedicato alle trasformazioni tecnologiche legate ad essa entra in parte nello specifico di diverse innovazioni mostrandone le problematiche e i rischi.
Un punto di partenza è che l’impostazione del libro rifugge da un approccio utilitaristico, nell’ambito del quale le visioni critiche sono facilmente tacitate, a fronte delle comodità del digitale, come passatiste, impaurite, reazionarie. L’autore dichiara invece di porsi fuori da un bilancio di vantaggi – svantaggi per svolgere i suoi ragionamenti su un altro piano, che corrisponde grosso modo all’interrogativo: quale è il senso profondo di queste innovazioni? In che modo possono influire sulla vita umana in generale (di tutti, quindi, al di là del soggetto che usandole al momento ne trae un’utilità fattizia)?
I nuclei argomentativi del testo riguardano da un lato le caratteristiche dei sistemi odierni basati sulla AI, dall’altro le loro ricadute sociali, e fra le une e le altre c’è un nesso causale molto forte.
Per quanto riguarda il primo punto, come viene descritto nel capitolo Una innovazione postscientifica, il mondo della AI è stato costruito con elementi di ricerca scientifica, ma alberga al centro stesso del suo funzionamento un nucleo di irrazionalità: il funzionamento delle cd. “reti neurali” a più livelli resta in parte misterioso anche per gli stessi costruttori: in gran parte la macchina si “addestra” da sola con la mera potenza del numero di tentativi e fallimenti. Ma nei suoi singoli passaggi il processo resta imperscrutabile.
Questo ha a che fare con la necessità dei “big data”: la AI ingoia una quantità enorme di dati per poter funzionare. Ma anche a tal riguardo abbiamo una modalità assai poco “scientifica”. In che senso?
Il metodo scientifico si afferma con la selezione di una porzione della realtà per scremarne gli elementi inessenziali – così, per la caduta dei gravi si mettono gli oggetti sotto vuoto, eliminando l’aria e l’attrito. La AI procede invece cercando delle correlazioni fra una massa abnorme di dati, sostituendo la selezione con la mera potenza di calcolo, ed i risultati sono accettati solo perché sono funzionali, ma senza capire davvero il perché: “le tecnoscienza tendono a manipolare il mondo senza comprenderlo” (p. 80).
Facciamo un altro esempio. Nelle scienze statistiche il campione viene scelto secondo una selezione secondo criteri “scientifici”. Un sondaggio serio per capire le inclinazioni politiche non può basarsi solo su cittadini di città governate da decenni dal Pd come Firenze o Bologna, ma deve sceglierli tra centri diversi, più uniformemente differenziati sull’orientamento politico prevalente. Coi big data invece si elaborano dati senza nessuna scelta separativa, in forza che il numero in sé dia delle indicazioni valide. Il risultato talvolta è che escono correlazioni a caso, potendosi fare associazioni in cui compare tutto e il contrario di tutto. Alcuni esempi ne fanno intravedere i possibili svarioni, come un rapporto fra il numero degli annegati caduti da una barca e quello dei matrimoni (sic!), o fra il numero di divorzi e il consumo pro capite di margarina! Questi esempi, ovviamente, non persuaderebbero nessuno. Ma in altri campi non è così facile la smentita,come le prescrizioni nutritive da rotocalco: “mangiate kiwi la sera per dormire meglio”. Il punto centrale è che la ricerca di correlazioni si basa sulla mera potenza di calcolo che non necessita di un vero quadro concettuale alle spalle.
Il passaggio dalla statistica tradizionale alla più moderna e smart data science si declina anche in senso operativo. Per esempio una estrazione di dati sulle parole nei commenti dei social (facebook, X, ecc.) potrebbe essere usata per vedere le reazioni a qualche esternazione in campagna elettorale per correggere il tiro, armonizzando (illusoriamente) il discorso con l’effetto prodotto a livello comunicativo. Molti parlerebbero, a tal proposito, di manipolazione.
Quanto alle conseguenze, si ha un curioso capovolgimento della narrativa corrente sulla AI. Nella fantascienza, per esempio, i problemi sorgono dal fatto che la macchina diventi sempre più simile all’uomo. Secondo l’autore è l’opposto, i guai sorgono invece da una divergenza insanabile. Per esempio, mentre le macchine sono bravissime in compiti difficili per l’essere umano, come calcoli complessi e memorizzazione di dati, incontrano seri ostacoli per attività banali (per noi) come camminare evitando gli ostacoli. Possono riconoscere gli oggetti, ma se per il bimbo – per esempio – l’acquisizione che un oggetto posto dietro un altro non scompare dall’esistenza è banale, per la AI è un ostacolo quasi insormontabile. In linea generale la macchina non riesce a cavarsela o a performare bene con pochi dati e tante variabili; ed infatti per funzionare ha bisogno di valanghe di dati.
Si tratta dello sbocco di un fallimento, quello di riprodurre meccanicamente il funzionamento della mente umana del dopoguerra; tale tentativo, che incorpora gli assunti di alcune scuole di pensiero in voga in quegli anni (comportamentismo, cognitivismo, biologismo, che in generale tendono a mutilare la complessità umana facendo della persona un “automa complesso”) vede un fiasco totale, ma resta il progetto di una progressiva informatizzazione della società. La soluzione aggira tale problema puntando sulla potenza materiale di calcolo, ma con risultati altalenanti.
Perché questo è importante per le ricadute pratche? il capitolo 12, Disallineamento e instabilità, lo chiarisce con nettezza: dato che gli algoritmi funzionano in contesti stabili, con variabili definite e continuative, si dovrà disciplinare il mondo sociale in modo da costruire un contesto adeguato; anche per il comportamento umano.
In termini più pop: non dobbiamo tanto temere che Skynet divenga troppo simile a noi, ma che il nostro mondo venga piallato in modo da conformarlo ad una versione di Skynet non particolarmente in gamba.
Gli esempi con cui le varie AI diventano sempre più elementi direttivi sono sempre più numerosi: dall’uso nei mercati finanziari ai tribunali (algoritmi che presumono di prevedere la possibile recidivia!), dalla salute alla scuola. Nel libro c’è un focus specifico su questi ultimi casi. Un saggio corposo è avvenuto durante il covid con la didattica a distanza, col largo uso di piattaforme private. L’ossessiva rincorsa alla digitalizzazione e alla centralità dell’uso di apparati tecnologici – tanto cara al PNRR di Draghi – esalta il ruolo dei fornitori aziendali, riducendo al tempo stesso il ruolo degli insegnanti quali meri “facilitatori tecnologici”.
Il senso più profondo del testo è attivare un dibattito verso tali mutazioni, che paiono dirigerci verso un mondo – alla fin fine – meno umano. Se per umano si intende lo spazio di imprevedibilità, il fiorire della creatività nel discorso condiviso con una comunità. Di contro a un assetto completamente omologato, robotizzato, fitto di decisioni procedurali indiscutibili – un assaggio delle quali lo si vede nella sospensione degli account dei social: non c’è un qualcuno cui rivolgersi, ma un muro di una procedura tecnologica assoluta.
Chi scrive vede in queste prospettive non solo una ragione profonda di tante dinamiche nocive – come le tecniche di guerra contemporanea. Ma si trova scaraventato verso i suoi vent’anni al corso di filosofia sul mind-body problem, l’annoso quesito filosofico della possibilità di ridurre l’esistenza umana a alcunché di calcolabile, misurabile, controllabile. Al tempo, con l’ermeneutica e scuole simili in grande spolvero, sembrava una prospettiva disperatamente limitata, gravata da una antropologia deprimente oltre che fallace, destinata ad una marginalità irredimibile. Ed invece ce la troviamo nei posti di comando a dirigere il mondo, spalleggiata dalla corporatocrazia più odiosa e pronta ad approfondire la sua indiscutibilità; ben bardata da un senso di modernità smart e accarezzata dall’europeismo da establishment.
In sintesi: punto forte del libro è un rovesciamento di prospettiva: mentre le critiche antitecnologiche sono spesso bollate come passatiste e antiscientifiche, qui è la stessa AI accusata di aver voltato le spalle alla scienza.
Il punto debole è che non riesce a dare spazio alle determinanti geopolitiche e culturali. Gli esiti descritti sono in pieno sviluppo in Occidente, ma nel resto del mondo il contesto è diverso. Anche se la Cina sviluppa anch’essa tali tecnologie il controllo politico su di esse è abbastanza diverso dalla alleanza con la corporatocrazia vigente nel blocco euroatlantico. Ovviamente ciò non significa che essa o qualche altra potenza non allineata alla oramai barcollante egemonia Usa siano delle isole di libertà o modelli da imitare. Ma il pluralismo di esperienze aiuta ad avere una prospettiva meno soffocante. Alla fin fine tanto sul piano teorico quanto sulla sua declinazione sociale le AI sono legate alla visione occidentale, e le altre tecnologie che si sono diffuse nel mondo non hanno reso tutti gli essere umani americani o europei. Chiaramente una rivolta dal basso nei paesi nei paesi euroatlantici sarebbe l’opzione più auspicabile, ma se la resistenza oggi è nel migliore dei casi la conservazione di nicchie, resta la prospettiva di un mondo troppo vasto e complesso per essere costretto da una suprema reductio ad unum tecnocratica. Anche considerando che paesi, assai meno ricchi e avanzati di Usa e Ue, mostrano di non poter essere assimilati con facilità; come la Russia che è in guerra quasi aperta col blocco euroatlantico, e non pare cavarsela così male.

MEGLIO LICANTROPI CHE FILANTROPI
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
- Drogato_ di_porno
- Storico dell'impulso
- Messaggi: 77842
- Iscritto il: 20/06/2002, 2:00
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
chissà quanti ci cascano
“E' vero che in Russia i bambini mangiavano i comunisti?"
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
Dos per quanto ne capisco io l'autore del libro ha colto nel segno , noi stiamo per scatenare un'ondata di innovazione guidata dalle AI di cui fondalmente non comprendiamo le implicazioni e forse non siamo neanche in grado di controllaredostum ha scritto: ↑23/06/2024, 2:48è sempre a fin di bene l'atomica,la guerra batteriologica......................................
Terminata la lettura delle scarse 150 pp. del volume di Stefano Isola, A fin di bene: il nuovo potere della ragione artificiale (Asterios, 2023), la sensazione è di inquietudine. Il dibattito sulle potenzialità della cosiddetta “intelligenza artificiale” (AI) è salito al punto da echeggiare i temi della fantascienza sulla “rivolta delle macchine”. Impressiona il fatto che la denuncia dei rischi venga non da qualche sorta di “primitivista”, ma da imprenditori del settore e da ricercatori. “Il 49% dei ricercatori di intelligenza artificiale ha affermato che l’IA rappresenta una minaccia esistenziale per l’umanità, quasi al livello di un disastro nucleare di larga scala” (sic!). Quest’ultimo passo è citato nel testo del prof. Isola (p. 60), proveniente da un membro della Commissione Trilaterale.
Oggi la AI è ovunque: dai risultati dei motori di ricerca al funzionamento dei social, dalle armi alla ricerca scientifica, con numerose applicazioni quotidiane, con una ampiezza pari alla digitalizzazione del mondo. Questo agile volume dedicato alle trasformazioni tecnologiche legate ad essa entra in parte nello specifico di diverse innovazioni mostrandone le problematiche e i rischi.
Un punto di partenza è che l’impostazione del libro rifugge da un approccio utilitaristico, nell’ambito del quale le visioni critiche sono facilmente tacitate, a fronte delle comodità del digitale, come passatiste, impaurite, reazionarie. L’autore dichiara invece di porsi fuori da un bilancio di vantaggi – svantaggi per svolgere i suoi ragionamenti su un altro piano, che corrisponde grosso modo all’interrogativo: quale è il senso profondo di queste innovazioni? In che modo possono influire sulla vita umana in generale (di tutti, quindi, al di là del soggetto che usandole al momento ne trae un’utilità fattizia)?
I nuclei argomentativi del testo riguardano da un lato le caratteristiche dei sistemi odierni basati sulla AI, dall’altro le loro ricadute sociali, e fra le une e le altre c’è un nesso causale molto forte.
Per quanto riguarda il primo punto, come viene descritto nel capitolo Una innovazione postscientifica, il mondo della AI è stato costruito con elementi di ricerca scientifica, ma alberga al centro stesso del suo funzionamento un nucleo di irrazionalità: il funzionamento delle cd. “reti neurali” a più livelli resta in parte misterioso anche per gli stessi costruttori: in gran parte la macchina si “addestra” da sola con la mera potenza del numero di tentativi e fallimenti. Ma nei suoi singoli passaggi il processo resta imperscrutabile.
Questo ha a che fare con la necessità dei “big data”: la AI ingoia una quantità enorme di dati per poter funzionare. Ma anche a tal riguardo abbiamo una modalità assai poco “scientifica”. In che senso?
Il metodo scientifico si afferma con la selezione di una porzione della realtà per scremarne gli elementi inessenziali – così, per la caduta dei gravi si mettono gli oggetti sotto vuoto, eliminando l’aria e l’attrito. La AI procede invece cercando delle correlazioni fra una massa abnorme di dati, sostituendo la selezione con la mera potenza di calcolo, ed i risultati sono accettati solo perché sono funzionali, ma senza capire davvero il perché: “le tecnoscienza tendono a manipolare il mondo senza comprenderlo” (p. 80).
Facciamo un altro esempio. Nelle scienze statistiche il campione viene scelto secondo una selezione secondo criteri “scientifici”. Un sondaggio serio per capire le inclinazioni politiche non può basarsi solo su cittadini di città governate da decenni dal Pd come Firenze o Bologna, ma deve sceglierli tra centri diversi, più uniformemente differenziati sull’orientamento politico prevalente. Coi big data invece si elaborano dati senza nessuna scelta separativa, in forza che il numero in sé dia delle indicazioni valide. Il risultato talvolta è che escono correlazioni a caso, potendosi fare associazioni in cui compare tutto e il contrario di tutto. Alcuni esempi ne fanno intravedere i possibili svarioni, come un rapporto fra il numero degli annegati caduti da una barca e quello dei matrimoni (sic!), o fra il numero di divorzi e il consumo pro capite di margarina! Questi esempi, ovviamente, non persuaderebbero nessuno. Ma in altri campi non è così facile la smentita,come le prescrizioni nutritive da rotocalco: “mangiate kiwi la sera per dormire meglio”. Il punto centrale è che la ricerca di correlazioni si basa sulla mera potenza di calcolo che non necessita di un vero quadro concettuale alle spalle.
Il passaggio dalla statistica tradizionale alla più moderna e smart data science si declina anche in senso operativo. Per esempio una estrazione di dati sulle parole nei commenti dei social (facebook, X, ecc.) potrebbe essere usata per vedere le reazioni a qualche esternazione in campagna elettorale per correggere il tiro, armonizzando (illusoriamente) il discorso con l’effetto prodotto a livello comunicativo. Molti parlerebbero, a tal proposito, di manipolazione.
Quanto alle conseguenze, si ha un curioso capovolgimento della narrativa corrente sulla AI. Nella fantascienza, per esempio, i problemi sorgono dal fatto che la macchina diventi sempre più simile all’uomo. Secondo l’autore è l’opposto, i guai sorgono invece da una divergenza insanabile. Per esempio, mentre le macchine sono bravissime in compiti difficili per l’essere umano, come calcoli complessi e memorizzazione di dati, incontrano seri ostacoli per attività banali (per noi) come camminare evitando gli ostacoli. Possono riconoscere gli oggetti, ma se per il bimbo – per esempio – l’acquisizione che un oggetto posto dietro un altro non scompare dall’esistenza è banale, per la AI è un ostacolo quasi insormontabile. In linea generale la macchina non riesce a cavarsela o a performare bene con pochi dati e tante variabili; ed infatti per funzionare ha bisogno di valanghe di dati.
Si tratta dello sbocco di un fallimento, quello di riprodurre meccanicamente il funzionamento della mente umana del dopoguerra; tale tentativo, che incorpora gli assunti di alcune scuole di pensiero in voga in quegli anni (comportamentismo, cognitivismo, biologismo, che in generale tendono a mutilare la complessità umana facendo della persona un “automa complesso”) vede un fiasco totale, ma resta il progetto di una progressiva informatizzazione della società. La soluzione aggira tale problema puntando sulla potenza materiale di calcolo, ma con risultati altalenanti.
Perché questo è importante per le ricadute pratche? il capitolo 12, Disallineamento e instabilità, lo chiarisce con nettezza: dato che gli algoritmi funzionano in contesti stabili, con variabili definite e continuative, si dovrà disciplinare il mondo sociale in modo da costruire un contesto adeguato; anche per il comportamento umano.
In termini più pop: non dobbiamo tanto temere che Skynet divenga troppo simile a noi, ma che il nostro mondo venga piallato in modo da conformarlo ad una versione di Skynet non particolarmente in gamba.
Gli esempi con cui le varie AI diventano sempre più elementi direttivi sono sempre più numerosi: dall’uso nei mercati finanziari ai tribunali (algoritmi che presumono di prevedere la possibile recidivia!), dalla salute alla scuola. Nel libro c’è un focus specifico su questi ultimi casi. Un saggio corposo è avvenuto durante il covid con la didattica a distanza, col largo uso di piattaforme private. L’ossessiva rincorsa alla digitalizzazione e alla centralità dell’uso di apparati tecnologici – tanto cara al PNRR di Draghi – esalta il ruolo dei fornitori aziendali, riducendo al tempo stesso il ruolo degli insegnanti quali meri “facilitatori tecnologici”.
Il senso più profondo del testo è attivare un dibattito verso tali mutazioni, che paiono dirigerci verso un mondo – alla fin fine – meno umano. Se per umano si intende lo spazio di imprevedibilità, il fiorire della creatività nel discorso condiviso con una comunità. Di contro a un assetto completamente omologato, robotizzato, fitto di decisioni procedurali indiscutibili – un assaggio delle quali lo si vede nella sospensione degli account dei social: non c’è un qualcuno cui rivolgersi, ma un muro di una procedura tecnologica assoluta.
Chi scrive vede in queste prospettive non solo una ragione profonda di tante dinamiche nocive – come le tecniche di guerra contemporanea. Ma si trova scaraventato verso i suoi vent’anni al corso di filosofia sul mind-body problem, l’annoso quesito filosofico della possibilità di ridurre l’esistenza umana a alcunché di calcolabile, misurabile, controllabile. Al tempo, con l’ermeneutica e scuole simili in grande spolvero, sembrava una prospettiva disperatamente limitata, gravata da una antropologia deprimente oltre che fallace, destinata ad una marginalità irredimibile. Ed invece ce la troviamo nei posti di comando a dirigere il mondo, spalleggiata dalla corporatocrazia più odiosa e pronta ad approfondire la sua indiscutibilità; ben bardata da un senso di modernità smart e accarezzata dall’europeismo da establishment.
In sintesi: punto forte del libro è un rovesciamento di prospettiva: mentre le critiche antitecnologiche sono spesso bollate come passatiste e antiscientifiche, qui è la stessa AI accusata di aver voltato le spalle alla scienza.
Il punto debole è che non riesce a dare spazio alle determinanti geopolitiche e culturali. Gli esiti descritti sono in pieno sviluppo in Occidente, ma nel resto del mondo il contesto è diverso. Anche se la Cina sviluppa anch’essa tali tecnologie il controllo politico su di esse è abbastanza diverso dalla alleanza con la corporatocrazia vigente nel blocco euroatlantico. Ovviamente ciò non significa che essa o qualche altra potenza non allineata alla oramai barcollante egemonia Usa siano delle isole di libertà o modelli da imitare. Ma il pluralismo di esperienze aiuta ad avere una prospettiva meno soffocante. Alla fin fine tanto sul piano teorico quanto sulla sua declinazione sociale le AI sono legate alla visione occidentale, e le altre tecnologie che si sono diffuse nel mondo non hanno reso tutti gli essere umani americani o europei. Chiaramente una rivolta dal basso nei paesi nei paesi euroatlantici sarebbe l’opzione più auspicabile, ma se la resistenza oggi è nel migliore dei casi la conservazione di nicchie, resta la prospettiva di un mondo troppo vasto e complesso per essere costretto da una suprema reductio ad unum tecnocratica. Anche considerando che paesi, assai meno ricchi e avanzati di Usa e Ue, mostrano di non poter essere assimilati con facilità; come la Russia che è in guerra quasi aperta col blocco euroatlantico, e non pare cavarsela così male.


di sicuro ci sfugge l'impatto che avrà sulla nostra società e il modo con cui difendere i nostri diritti, è una situazione in così rapida evoluzione che è impossibile starvi dietro
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
Non è il se ma il quando cmq è meglio non perdere la testagaston ha scritto: ↑24/06/2024, 15:55
Dos per quanto ne capisco io l'autore del libro ha colto nel segno , noi stiamo per scatenare un'ondata di innovazione guidata dalle AI di cui fondalmente non comprendiamo le implicazioni e forse non siamo neanche in grado di controllare![]()
di sicuro ci sfugge l'impatto che avrà sulla nostra società e il modo con cui difendere i nostri diritti, è una situazione in così rapida evoluzione che è impossibile starvi dietro

MEGLIO LICANTROPI CHE FILANTROPI
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
Cazzo se vanno in depressione pure loro allora noncè scampo!!!
Corea del Sud: robot dipendente pubblico si suicida
Il robot assistente in un comune coreano da mesi, a un certo punto, si è gettato nel vuoto
Un consiglio comunale in Corea del Sud ha dichiarato mercoledì (26 giugno) che il loro primo robot assistemte amministrativo è morto dopo essersi gettato dalle scale. I media locali hanno confermato e commentato il primo suicidio robotico del apese.
Il Comune di Gumi, in Corea del Sud, ha annunciato che il robot è stato trovato senza reagire dopo essere apparentemente caduto da una scala di 2 metri la settimana scorsa.
I testimoni hanno visto il robot ufficiale “girare in un punto come se cercasse qualcosa” prima che si verificasse l’incidente, ma la causa esatta della caduta è ancora in fase di indagine, ha detto un funzionario del Comune all’AFP.
“I pezzi sono stati raccolti e saranno analizzati dall’aziendaproduttrice”, ha detto il funzionario, aggiungendo che il robot aveva “aiutato con le consegne giornaliere di documenti, la promozione della città e la consegna di informazioni” ai residenti locali.
“Era ufficialmente una parte del municipio, uno di noi”, ha detto un altro funzionario. “Ha lavorato diligentemente”.
I media locali hanno commentato tra lo stupito e lo sgomento quello che è successo, dato che non si è trovata una spiegazione tecnica e qualcono ha parlato perfino di “Lavoro troppo duro”
Nominato nell’agosto 2023, il robot è stato uno dei primi ad essere utilizzato in questo modo in un comune sud coreano.
Realizzato da Bear Robotics, una start-up californiana di robot-camerieri, il robot lavorava dalle 9 alle 18 e aveva la propria tessera di funzionario.
A differenza di altri robot, che in genere possono utilizzare solo un piano, il robot del Comune di Gumi poteva chiamare un ascensore e spostarsi da solo da un piano all’altro, e questo rende ancora meno spiegabile la sua caduta.
La Corea del Sud è uno degli utenti più entusiasti di robot a livello globale. Ha la più alta densità di robot al mondo, con un robot industriale ogni 10 dipendenti, secondo la Federazione Internazionale di Robotica.
Il Comune di Gumi non ha in programma di adottare un secondo agente robotico al momento, secondo quanto riportato dai media. Magari non vuole assistere a un altro suicidio robotico.

Corea del Sud: robot dipendente pubblico si suicida
Il robot assistente in un comune coreano da mesi, a un certo punto, si è gettato nel vuoto
Un consiglio comunale in Corea del Sud ha dichiarato mercoledì (26 giugno) che il loro primo robot assistemte amministrativo è morto dopo essersi gettato dalle scale. I media locali hanno confermato e commentato il primo suicidio robotico del apese.
Il Comune di Gumi, in Corea del Sud, ha annunciato che il robot è stato trovato senza reagire dopo essere apparentemente caduto da una scala di 2 metri la settimana scorsa.
I testimoni hanno visto il robot ufficiale “girare in un punto come se cercasse qualcosa” prima che si verificasse l’incidente, ma la causa esatta della caduta è ancora in fase di indagine, ha detto un funzionario del Comune all’AFP.
“I pezzi sono stati raccolti e saranno analizzati dall’aziendaproduttrice”, ha detto il funzionario, aggiungendo che il robot aveva “aiutato con le consegne giornaliere di documenti, la promozione della città e la consegna di informazioni” ai residenti locali.
“Era ufficialmente una parte del municipio, uno di noi”, ha detto un altro funzionario. “Ha lavorato diligentemente”.
I media locali hanno commentato tra lo stupito e lo sgomento quello che è successo, dato che non si è trovata una spiegazione tecnica e qualcono ha parlato perfino di “Lavoro troppo duro”
Nominato nell’agosto 2023, il robot è stato uno dei primi ad essere utilizzato in questo modo in un comune sud coreano.
Realizzato da Bear Robotics, una start-up californiana di robot-camerieri, il robot lavorava dalle 9 alle 18 e aveva la propria tessera di funzionario.
A differenza di altri robot, che in genere possono utilizzare solo un piano, il robot del Comune di Gumi poteva chiamare un ascensore e spostarsi da solo da un piano all’altro, e questo rende ancora meno spiegabile la sua caduta.
La Corea del Sud è uno degli utenti più entusiasti di robot a livello globale. Ha la più alta densità di robot al mondo, con un robot industriale ogni 10 dipendenti, secondo la Federazione Internazionale di Robotica.
Il Comune di Gumi non ha in programma di adottare un secondo agente robotico al momento, secondo quanto riportato dai media. Magari non vuole assistere a un altro suicidio robotico.

MEGLIO LICANTROPI CHE FILANTROPI
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
Baalkaan hai la machina targata Sassari?
VE LA MERITATE GEGGIA
- Drogato_ di_porno
- Storico dell'impulso
- Messaggi: 77842
- Iscritto il: 20/06/2002, 2:00
Re: (OT) Metaverso, droidi e varie porcherie futuristiche
forse ha voluto salvarci da lui stesso
“E' vero che in Russia i bambini mangiavano i comunisti?"
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”
"Magari è il contrario, no?"
"Ecco, mi sembrava strano che c'avessero dei bambini così feroci.”