(OT) Metaverso, droidi e varie porcherie futuristiche

Scatta il fluido erotico...

Moderatori: Super Zeta, AlexSmith, Pim, Moderatore1

Messaggio
Autore
Avatar utente
dostum
Storico dell'impulso
Storico dell'impulso
Messaggi: 22631
Iscritto il: 18/12/2001, 1:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#436 Messaggio da dostum »

Drogato_ di_porno ha scritto:
30/06/2024, 9:23
dostum ha scritto:
30/06/2024, 3:15
Cazzo se vanno in depressione pure loro allora non cè scampo!!!
forse ha voluto salvarci da lui stesso
Immagine
:DDD :DDD :DDD :DDD :DDD :DDD :DDD
è che non cera Susan Calvin
Immagine
MEGLIO LICANTROPI CHE FILANTROPI

Baalkaan hai la machina targata Sassari?

VE LA MERITATE GEGGIA

Avatar utente
Paperinik
Storico dell'impulso
Storico dell'impulso
Messaggi: 29190
Iscritto il: 31/08/2002, 2:00
Località: In giro per la mia mente

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#437 Messaggio da Paperinik »

"E' impossibile", disse il cervello.
"Provaci!", sussurrò il cuore.
"Vai via, brutto!", urlò la ragazza.

06/06/2019 FIRENZE LIBERA
https://www.youtube.com/watch?v=0Zp9AmCfWbI

Avatar utente
Floppy Disk
Storico dell'impulso
Storico dell'impulso
Messaggi: 6152
Iscritto il: 17/11/2020, 14:16
Località: Windows XP

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#438 Messaggio da Floppy Disk »

dostum ha scritto:
30/06/2024, 12:13
:DDD :DDD :DDD :DDD :DDD :DDD :DDD
è che non cera Susan Calvin
[Scopri]Spoiler
Immagine
Che nella versione cinematografica è interpretata da una poco più che trentenne e molto piacente Bridget Moynahan. Grandi film, bei tempi.
I'm a humanist. Maybe the last humanist.

In the long run we are all dead.

Avatar utente
dostum
Storico dell'impulso
Storico dell'impulso
Messaggi: 22631
Iscritto il: 18/12/2001, 1:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#439 Messaggio da dostum »

MEGLIO LICANTROPI CHE FILANTROPI

Baalkaan hai la machina targata Sassari?

VE LA MERITATE GEGGIA

Avatar utente
dostum
Storico dell'impulso
Storico dell'impulso
Messaggi: 22631
Iscritto il: 18/12/2001, 1:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#440 Messaggio da dostum »

ntelligenza mortale. AI e armi autonome letali
di Giovanna Cracco
mitch nielsen pWtNPCpvVA8 unsplash.jpg“Quanto ci eravamo proposti era nientemeno che di comprendere perché l’umanità, invece di entrare in uno stato veramente umano, sprofondi in un nuovo genere di barbarie.” Dialettica dell’illuminismo,

Max Horkheimer e Theodor W. Adorno

In un video prodotto da Future of Life (1) uno sciame di mini droni, grandi quanto il palmo di una mano, fuoriesce da un furgone e si dirige verso un’università; una volta raggiunta vi penetra attraverso i muri utilizzando piccole cariche esplosive, si muove all’interno tra le diverse aule scatenando il panico tra gli studenti, ne individua alcuni e li uccide, facendo detonare 3 grammi di esplosivo a pochi centimetri dalla fronte. L’operazione non è gestita da remoto da un operatore umano, né per quanto riguarda il volo, né per l’individuazione del bersaglio, né per l’ordine di ‘fare fuoco’: i droni sono totalmente autonomi. L’intelligenza artificiale che li muove, singolarmente e collettivamente in uno sciame coordinato, utilizza un GPS per raggiungere l’università, sensori e telecamere per muoversi all’interno della struttura sulla base della mappa precaricata dell’edificio, e un sistema di riconoscimento facciale per individuare gli studenti ‘bersaglio’, i cui dati sono stati prelevati dai social network tramite algoritmi di profilazione che monitorano post, like, immagini ecc. I droni appartengono alla categoria dei killer robot o lethal au- tonomous weapon (LAW), ‘armi autonome letali’, e il cortometraggio di fantasia di Future of Life vuole denunciare la pericolosità dell’intelligenza artificiale applicata all’ambito militare.

Il video è di novembre 2017; sette anni fa appariva quasi fantascienza, oggi mostra una realtà operativa. E anziché censurare l’applicazione dell’intelligenza artificiale agli armamenti, l’ONU discute su come regolamentarla. Come se non esistesse alternativa. Come se una volta sviluppata, una tecnologia non potesse rimanere inutilizzata. Come se ethos e scienza appartenessero a mondi separati e il primo non potesse fare da guida, giudizio e scelta della seconda. Come se la progettazione della bomba atomica – e il suo impiego – avesse insegnato nulla. “Sono diventato Morte, il distruttore di mondi.”



Ucraina: il modello Israele

Secondo autonomousweapons.org – che promuove una campagna di sensibilizzazione per la messa al bando delle LAW – sono killer robot quelle armi in grado di fare autonomamente, senza controllo umano, due operazioni: selezionare e colpire un bersaglio. Il database dell’organizzazione ne conta diciassette (2): cinque prodotte dagli Stati Uniti, cinque da Israele (di cui una in collaborazione con la Germania), due dalla Russia, due dalla Corea del Sud, una dalla Cina, una dalla Turchia e infine una dall’Ucraina. Significativa l’esistenza di quest’ultima: rende evidente quanto il Paese sia diventato terreno e mercato per lo sviluppo dell’intelligenza artificiale applicata all’industria degli armamenti e, in generale, alla guerra.

“L’Ucraina è un laboratorio vivente in cui alcuni di questi sistemi abilitati all’intelligenza artificiale possono raggiungere la maturità attraverso esperimenti dal vivo e reiterazione rapida e costante”, afferma al Time (3), a febbraio scorso, Jorrit Kaminga, direttore della politica globale di RainDefense+AI, una società di ricerca specializzata in AI per la difesa; quanto la “reiterazione rapida e costante” significhi di fatto l’uccisione di esseri umani è un dato che non intacca l’entusiasmo di Kaminga. O di Alex Karp della Palantir Technologies, il primo amministratore delegato di un’azienda privata ad avere incontrato Zelenskyj, ad appena tre mesi dall’inizio del conflitto: “Ci sono cose che possiamo fare sul campo di battaglia che non potremmo fare in un contesto artefatto”, dichiara al Time – com’è noto, Palantir è tra le maggiori aziende di analisi di big data attiva nell’ambito militare e di sicurezza, appaltatrice di Pentagono, Cia e Dipartimento di Stato USA, il cui fondatore Peter Thiel ha dichiarato al New York Times, ad agosto 2019, che l’intelligenza artificiale è prima di tutto una tecnologia militare (4). A Palantir sono seguiti, tra i nomi conosciuti, Microsoft, Amazon, Google, Starlink e Clearview AI, la società nota per il suo sistema di riconoscimento facciale. Mykhailo Fedorov, ministro della Trasformazione Digitale ucraino, è l’artefice della sinergia: L’Ucraina “è il miglior banco di prova per tutte le tecnologie più recenti”, afferma, “perché qui puoi testarle in condizioni di vita reale”. Israele è il modello dichiarato: un Paese non solo divenuto centro di sviluppo della tecnologia digitale, ma che si caratterizza per la possibilità di testare rapidamente le proprie innovazioni militari in situazioni di conflitto, tra Gaza, Cisgiordania e Libano: un plus (!) che giova alle vendite. L’obiettivo di Fedorov è il medesimo: costruire un settore tecnologico che possa aiutare a vincere la guerra e divenire il nucleo centrale dell’economia ucraina. Gli investitori della Silicon Valley, riporta il Time, hanno lanciato il Blue and Yellow Heritage Fund per investire in startup ucraine; l’ex CEO di Google, Eric Schmidt, ha messo più di 10 milioni di dollari in D3Dare to Defend Democracy, un acceleratore di startup militari ucraine; Quantum Systems, azienda tedesca specializzata in progettazione e produzione di droni, ha annunciato che aprirà un centro di ricerca e sviluppo a Kiev; Rakuten, multinazionale tecnologica giapponese, ha in progetto di aprire un ufficio a Kiev; Baykar, azienda turca attiva nel settore della difesa con la fabbricazione di droni, ha investito quasi 100 milioni di dollari per costruire un centro di ricerca e produzione in Ucraina entro il 2025; piccole aziende statunitensi ed europee, molte focalizzate sui droni autonomi, hanno aperto negozi a Kiev; a poca distanza dalla capitale è nato Unit City, un ‘parco dell’innovazione’ high-tech, mentre gli affollati coworking di Kiev sono stati ribattezzati “Mil-Tech Valley”. Un risvolto, nel suo complesso, che può contribuire a comprendere perché numerosi attori – su tutti USA e Unione europea – si ostinino a opporsi a un negoziato per la fine del conflitto, e continuino ad armare l’Ucraina.



Big Tech, DNA militare

Se la guerra è sempre stata, storicamente, traino per l’innovazione scientifica e tecnica, oggi è talmente connessa con le tecnologie digitali che si dovrebbe iniziare ad annoverare il settore tra quello degli armamenti. Già il Rapporto Sipri 2022 aveva iniziato a evidenziarlo, pur rilevando la difficoltà dell’inserimento dei dati: da un lato molti dei servizi e delle tecnologie vendute dalle aziende tech al comparto della Difesa non vengono classificati come ‘armamenti’, dall’altro il relativo giro d’affari risulta per ora troppo piccolo per comparire nelle classifiche dei colossi dell’industria delle armi.

Quando nel 2018 più di 4.000 lavoratori di Google firmarono una petizione per chiedere alla società di non rinnovare il contratto con il Pentagono relativo a Project Maven, la dirigenza decise di assecondarli e a marzo 2019 l’azienda uscì ufficialmente dal programma. Maven era un progetto di intelligenza artificiale ed elaborazione di big data della Difesa USA, all’interno del quale Google stava sviluppando un software di riconoscimento di ‘obiettivi’ in movimento destinato ai droni, utilizzabile sia per compiti di sorveglianza che di attacco autonomo. In quell’occasione la società annunciò che non avrebbe più partecipato a progetti militari legati all’uso della AI negli armamenti. La vicenda guadagnò risonanza mediatica, scomodò la parola ‘etica’, e diverse aziende della Silicon Valley adottarono la stessa narrazione, dichiarando che avrebbero interrotto la collaborazione con le Agenzie Federali e il Dipartimento della Difesa USA; i media titolarono con enfasi il ‘divorzio’ tra Big Tech e l’ambito militare. Ma non c’era stato alcun divorzio.

Un’inchiesta di Tech Inquiry del luglio 2020 (5) rivelava che Google, Amazon, Microsoft, Facebook, Apple, Dell, IBM, HP, Cisco, Oracle, NVIDIA e Anduril avevano concluso migliaia di accordi, per milioni di dollari, con la Difesa, l’Immigration and Customs Enforcement, l’FBI, la Drug Enforcement Agency e il Federal Bureau of Prisons. Jack Poulson, che firmava l’inchiesta, era un ex ricercatore di Google che aveva lasciato l’azienda nel 2018, in opposizione alle collaborazioni con l’ambito militare. L’analista aveva setacciato più di 30 milioni di contratti governativi firmati o modificati tra gennaio 2016 e giugno 2020, e l’inchiesta è talmente ricca di dati e dettagli che rimandiamo a una lettura integrale.

In sintesi, è innanzitutto rilevante che la difficoltà nello scovare i contratti è dovuta al fatto che la maggior parte di essi sono stipulati con altre imprese, che a loro volta subappaltano il progetto alle grandi società della Silicon Valley: i nomi delle Big Tech, quindi, a una prima ricerca non compaiono. Era già accaduto con Project Maven: nessuno dei contratti menzionava Google, e nel 2018 la collaborazione era stata scoperta solo grazie alle rivelazioni dei dipendenti della corporation: l’appalto era a nome di ECS Federal, una società che fornisce servizi tecnologici alla Difesa e a diverse Agenzie Federali, la quale aveva subappaltato il progetto a Google. In aggiunta, “i contratti tendono a essere concisi”, ha dichiarato Poulson in un’intervista riportata da NBC News (6), “spesso la descrizione del progetto sembra molto banale e solo quando guardi i dettagli dell’appalto, che puoi ottenere unicamente attraverso richieste di Freedom of Information Act, vedi realmente di cosa si tratta”: si va dal cloud storage alla gestione di database, al supporto per app, a strumenti amministrativi e analisi per la logistica. Le brevi descrizioni non dicono di più.

Microsoft utilizza “una rete di subappaltatori di cui la maggior parte delle persone non ha mai sentito parlare, o almeno non penserebbe di includere in un elenco di fornitori di tecnologia militare, tra cui ben note aziende come Dell ma anche imprese molto meno conosciute come CDW Corporation, Insight Enterprises e Minburn Technology Group” scriveva Poulson nell’inchiesta.

Amazon si muove “quasi interamente attraverso intermediari, come Four Points Technology , JHC Technology ed ECS Federal (che era anche il primo appaltatore per Maven dei contratti di Google)”.

“Google collabora con ECS Federal e con altre aziende meno note come The Daston Corporation, DLT Solutions, Eyak Technology e Dnutch Associates. Il 16 aprile [2020] ECS Federal ha annunciato una nuova partnership ampliata con Google Cloud per includere integrazioni con Google Analytics e Google Maps. Più tardi, lo stesso mese, ECS Federal ha ricevuto un nuovo contratto di 83 milioni di dollari per la prototipazione di piattaforme di intelligenza artificiale per l’esercito”.

“La Silicon Valley è sempre stata nel business della guerra”, afferma a NBC News Margart O’Mara, professoressa all’Università di Washington e storica nel campo dell’industria tecnologica: “Quella degli appalti e subappalti è una logica che risale agli anni ‘50 e ‘60: Lockheed Martin, ex Lockheed, società per lungo tempo tra i maggiori appaltatori militari del Paese, è stata il più grande datore di lavoro della Silicon Valley fino agli anni ‘80. Che i loro dipendenti se ne rendano conto o meno, i giganti della tecnologia di oggi contengono tutti un DNA da industria della difesa” (7). Anche Yll Bajraktari, direttore esecutivo della Commissione per la Sicurezza Nazionale sull’Intelligenza Artificiale, ricorda al Financial Times che “la Silicon Valley trae le sue origini dal Dipartimento della Difesa e dall’industria aerospaziale e della difesa”. Tra le tecnologie per le quali l’esercito è stato determinante ci sono “radar, GPS e tecnologia stealth, emerse durante la guerra fredda, per non parlare di Arpanet, la rete fondata negli anni ‘70 che è diventata la base di Internet […] Quando Internet è diventato parte della vita quotidiana, la Silicon Valley ha spostato la sua attenzione sulle applicazioni consumer e aziendali, mercati che sono diventati molto più grandi degli ordini del governo degli Stati Uniti, ma nell’ultimo decennio l’esercito ha capito che aveva bisogno di impegnarsi più strettamente con le aziende high-tech per essere in grado di competere con concorrenti come la Cina e la Russia”. E così “nel 2015 il Dipartimento della Difesa ha creato la Defense Innovation Unit, un avamposto nella Silicon Valley progettato per accelerare l’adozione da parte del Pentagono della tecnologia più recente, mentre cerca di approfondire l’alleanza tecnologica-militare” (8).

Questa la situazione prima della guerra in Ucraina, che ha segnato una cesura sul piano della narrazione: oggi Big Tech, così come tutte le aziende minori lanciate nello sviluppo dell’applicazione dell’intelligenza artificiale, non deve più nascondere la collaborazione con il comparto militare, bensì può vantarla ad alta voce, celebrando il proprio apporto a difesa della liberaldemocrazia. Con lo sguardo ben attento ai risultati economici, ovviamente. Il Blue and Yellow Heritage Fund lanciato dalla Silicon Valley per investire in startup ucraine “non è un ente di beneficenza”, evidenzia il socio fondatore John Frankel: “È il nostro modo di contribuire, ma anche di ottenere quello che pensiamo sarà un elevato ritorno sul capitale” (9). Viviamo pur sempre nel capitalismo.



Investire nella morte

Uno Studio pubblicato a maggio 2023 dalla società di consulenza Exactitude Consultancy (10) fotografa le tendenze e le proiezioni del mercato della AI nel settore militare per il periodo 2022-2029: dai 6,3 miliardi di dollari del 2020, il comparto crescerà fino a 19 miliardi nel 2029, registrando un incremento del 13,1% rispetto ai dati del 2022. A dominare il settore BAE Systems, Northrop Grumman, RTX-Raytheon Technologies, Lockheed Martin, Thales, L3Harris Technologies, Rafael Advanced Defense Systems, IBM e Boeing. Un investimento con sicura remunerazione che la finanza non si lascia sfuggire. BlackRock e Vanguard, i due maggiori fondi globali, sono infatti tra i primi nomi presenti nella compagine azionaria delle diverse società (11). Ci sono poi le aziende focalizzate sullo sviluppo dell’intelligenza artificiale applicata agli armamenti, come C3.ai., UiPath, Palo Alto Networks, KLA Corporation, Synopsys e Cadence Design Systems, anch’esse partecipate principalmente da BlackRock e Vanguard (12).

“L’intelligenza artificiale aiuta i soldati in prima linea nella risoluzione dei problemi legati alla natura umana, sostiene l’esercito e stimola l’economia globale” sottolinea lo Studio, naturalmente entusiasta della fusione tra AI e armamenti. Tuttavia una nuvola rischia di oscurare l’orizzonte: “Riguardo alla possibilità che le agenzie governative stiano potenziando i ‘killer robot’ per vincere la competizione sulle armi AI, sono preoccupate anche organizzazioni umanitarie come Human Rights Watch. Alcuni sostengono che il controllo umano dei robot sia necessario, per mantenere la gestione e la protezione umanitaria, quando le autorità nazionali implementano sistemi controllati dall’intelligenza artificiale per procedure e sorveglianza automatizzata. […]. Queste questioni limitano la crescita del mercato”. Se solo fosse vero...



Il farisaico utilizzo responsabile

Annualmente l’ONU si riunisce a Ginevra nell’ambito del Trattato Internazionale sul Disarmo noto come Convention on Certain Conventional Weapons: dal 2014 sul tavolo della discussione sono presenti anche le armi che utilizzano l’intelligenza artificiale. La discussione si è sempre focalizzata sul livello di autonomia nel premere il grilletto, e nessun accordo è stato mai raggiunto. Il primo novembre 2023, con la Risoluzione L56 votata ad ampia maggioranza – 164 Stati a favore, cinque contrari (Russia, Bielorussia, India, Mali, Niger) e otto astenuti (Israele, Cina, Corea del Nord, Iran, Arabia Saudita, Siria, Turchia, Emirati Arabi – la Prima Commissione dell’Assemblea generale delle Nazioni Unite ha richiesto espressamente che si discuta di armi autonome letali, aprendo un processo che potrebbe portare alla stesura di un trattato internazionale che ne regolamenti l’utilizzo. Al centro dei timori ONU “le possibili conseguenze negative e l’impatto dei sistemi d’arma autonomi sulla sicurezza globale e sulla stabilità regionale e internazionale, compreso il rischio di una emergente corsa agli armamenti, che abbassi le soglie di conflitto e proliferazione”.

La Risoluzione cita espressamente, con sguardo positivo, il REAIM 2023, ossia il vertice internazionale tenutosi all’Aja a febbraio 2023, organizzato da Paesi Bassi e Corea del Sud, e che vedrà l’edizione 2024 il prossimo settembre a Seoul (13). L’acronimo REAIM sta per Responsible AI in the Military Domain. Si tratta del “primo vertice globale sull’intelligenza artificiale responsabile in ambito militare”, recita il sito del governo olandese (14); ospiti “2.000 partecipanti provenienti da 100 Paesi con 80 rappresentanti governativi”, “nonché rappresentanti di istituti del sapere, think tank, organizzazioni dell’industria e della società civile”; un serrato programma che ha visto interagire aziende (spiccano IBM e Palantir), università, centri studi e associazioni (15), con “quattro sessioni di alto livello, circa trentacinque sessioni interattive, venti dimostrazioni di intelligenza artificiale, un forum accademico, hub di innovazione e un hub studentesco”. Cinquantasette gli Stati partecipanti (16) che hanno sottoscritto il documento finale (17), la Call to Action. Un testo interessante per intuire la direzione che potrebbe prendere la regolamentazione internazionale delle LAW.

Obiettivo dichiarato non è vietare né porre limiti all’utilizzo della AI nei sistemi d’arma, bensì “promuovere l’uso responsabile dell’intelligenza artificiale in ambito militare”, qualunque cosa voglia dire. Molto genericamente sono citati la “potenziale inaffidabilità dei sistemi di intelligenza artificiale, la questione del coinvolgimento umano, la mancanza di chiarezza per quanto riguarda la responsabilità e le potenziali conseguenze indesiderate e il rischio di un’escalation involontaria all’interno dello spettro delle forze armate”; viene ribadita “l’importanza di garantire garanzie adeguate e un controllo umano sull’utilizzo di sistemi di intelligenza artificiale, tenendo conto dei limiti umani dovuti a vincoli di tempo e capacità”; e viene riconosciuto che “il personale militare che utilizza l’AI dovrebbe comprendere a sufficienza le caratteristiche dei sistemi AI, le potenziali conseguenze dell’uso di questi sistemi, comprese le conseguenze derivanti da eventuali limitazioni, come potenziali distorsioni nei dati, richiedendo quindi ricerca, istruzione e formazione sulle modalità di interazione con l’utente e sull’affidamento ai sistemi AI, per evitare effetti indesiderati”. Quest’ultimo punto, soprattutto, è palesemente irrealistico, a meno di trasformare i militari in tecnici informatici; e anche riuscendoci, il problema persisterebbe.



I lupi, gli Husky e la neve

Éormainoto che quando parliamo di intelligenza artificiale parliamo di big data, sia dal lato dell’addestramento che da quello dei risultati. Ampiamente già applicata alla sfera militare è l’AI semi-autonoma, in grado di processare e interpretare grandi volumi di dati e dunque inserita nella linea di comando accanto all’operatore umano allo scopo dichiarato di rendere più rapide, precise ed efficaci le decisioni. Qui i software utilizzano analisi di consapevolezza situazionale (situation awareness), allerta precoce (early warning) e supporto alle decisioni (DSS, Decision Support System), realizzati tramite processione e correlazione dei dati (big data analytic), fusione delle informazioni (information fusion), riconoscimento di eventi/sequenze (event/pattern recognition) e approcci di softcomputing che consentono di gestire incertezze, come attacchi imprevisti e minacce sconosciute. Sono tutti questi aspetti tecnici che il personale militare dovrebbe conoscere e comprendere, secondo la Call to Action del REAIM 2023; un’eventualità già negata da una ricerca pubblicata nel 2016.

Nello studio «Why Should I Trust You?»: Explaining the Predictions of Any Classifier (18), tre ricercatori della Cornell University hanno portato ad esempio un sistema di computer vision artificiale capace di distinguere, senza errori, i lupi dai cani Husky: apparentemente perfetto, ‘intelligente’. Il problema, poi svelato, è che il software AI funzionava semplicemente rilevando la neve nelle immagini, poiché la maggior parte delle foto di lupi su cui si era addestrato erano state scattate in una zona selvaggia e innevata. L’analisi sollevava quindi due questioni – non certo risolte negli anni successivi, semmai aggravate, come mostrano i problemi di false informazioni e manipolazioni riscontrati nei Large Language Model di AI generativa come chatGPT (19).

La prima. Come fidarsi dei modelli di apprendimento automatico, indispensabili allo sviluppo della AI, nel momento in cui non viene reso noto su quali dati lavorano e come funzionano? Perché tecnicamente si può costruire un’arma autonoma di cui sia possibile prevedere le azioni quando si trovi davanti condizioni identiche a quelle su cui l’intelligenza artificiale si è addestrata, ma il problema è che la realtà non si riproduce mai uguale a se stessa.

La seconda. Gli attuali sistemi AI sono talmente avanzati da poter elaborare milioni di parametri, e ciò li rende incomprensibili al cervello umano: nulla è così semplice come i lupi, gli Husky e la neve. E anche se un militare potesse analizzare i dati in entrata e gli output generati, non potrà mai capire il processo che trasforma i primi nei secondi.

Mentre si avvia la discussione internazionale sulle armi autonome letali, dunque, il ‘controllo umano’ è di fatto già inesistente nei sistemi AI semi-autonomi oggi largamente utilizzati – e internazionalmente accettati – poiché l’operatore dà l’ordine di ‘fare fuoco’ sulla base di informazioni ricevute da software AI di cui non conosce, né potrà mai comprendere, l’addestramento, il processo di elaborazione dei dati e il funzionamento.



La seconda soglia di mutazione

Ne La convivialità Ivan Illich riflette sulla tecnologia, gli strumenti, la società industriale capitalistica votata al ‘progresso’ infinito – tradotto in produzione e consumo di massa – e individua “due soglie di mutazione”: “In un primo tempo si applica un nuovo sapere alla soluzione di un problema chiaramente definito, e con criteri scientifici si arriva a misurare l’aumento di efficienza ottenuto. Ma, in un secondo tempo, il progresso realizzato diventa un mezzo per sfruttare l’insieme del corpo sociale, mettendolo al servizio dei valori che una élite specializzata, sola garante del proprio valore, stabilisce e rivede senza tregua”; è a questo punto che “un’attività umana esplicata attraverso strumenti supera una certa soglia definita dalla sua scala specifica” e, quando accade, quell’attività “prima si rivolge contro il proprio scopo, poi minaccia di distruggere l’intero corpo sociale”. Illich porta alcuni esempi – salute, trasporti, educazione... – oggi l’analisi può essere applicata anche all’ambito delle nuove tecnologie e dell’intelligenza artificiale. “Occorre limitare il potere dello strumento” scrive Illich nel 1972, e qui la domanda si fa duplice: non solo dove si pone il limite, ma chi deve porlo.

In una società che risponde a logiche capitalistiche, l’intelligenza artificiale e il suo sviluppo divengono merce: a livello sistemico, dunque, dove si pone il limite è un interrogativo nemmeno posto, salvo farisaiche dichiarazioni di utilizzo responsabile. Dai chatbot agli armamenti, la sua applicazione è già senza confini e produce, come ogni strumento che oltrepassi la seconda soglia, “uniformazione regolamentata, dipendenza, sopraffazione e impotenza”.

Chi deve porre il limite? Politici, tecnici, studiosi, persino delegati di aziende che sviluppano l’intelligenza artificiale, ne discutono in consessi internazionali. È materia specialistica, affermano, ce ne occupiamo noi, non è alla portata di semplici cittadini. “Nutrita del mito della scienza, la società abbandona agli esperti persino la cura di fissare i limiti dello sviluppo” scrive Illich. “Una simile delega di potere distrugge l’intero funzionamento politico; alla parola come misura di tutte le cose, sostituisce l’obbedienza a un mito.” Ma, più di tutto, “l’esperto non rappresenta il cittadino. Fa parte di una élite la cui autorità si fonda sul possesso esclusivo di un sapere non comunicabile. Tuttavia questo sapere, in realtà, non gli conferisce alcuna particolare attitudine a definire i confini dell’equilibrio della vita. L’esperto non potrà mai dire dove si colloca la soglia della tolleranza umana: è la persona che la determina, nella comunità; e questo suo diritto è inalienabile”. Siamo noi cittadini, come collettività, che dobbiamo decidere gli strumenti da utilizzare e i loro limiti, e comprendere, con le parole di Illich, che “uno strumento non controllabile rappresenta una minaccia insostenibile”. Non è solo uno strumento che ci domina, perché non lo padroneggiamo – come umani, non potremo mai conoscere e capire l’addestramento, il processo di elaborazione dei dati e il funzionamento degli algoritmi di intelligenza artificiale –, è uno strumento che ci plasma attraverso la sua struttura, come riflette anche Renato Curcio nel suo ultimo libro, analizzando il concetto di ‘sovraimplicazione’ (20). “Attraverso di esso,” scrive Illich, “è un altro diverso da me che determina la mia domanda, restringe il mio margine di controllo e governa il mio senso della vita”: un altro che non è identificabile solo con le aziende tecnologiche e di armamenti ma, in una visione più ampia, con la logica capitalistica in sé, che non ha mai esitato nel mettere a valore anche la morte. È il futuro che vogliamo?

Note
1 Future of life è una organizzazione no profit che si batte per la messa al bando dei killer robot; il video è visibile qui https://www.youtube.com/watch?v=HipTO_7mUOw
2 Cfr. https://autonomousweaponswatch.org/weapons
3 Cfr. https://time.com/6691662/ai-ukraine-war-palantir/
4 Cfr. https://www.nytimes.com/2019/08/01/opin ... oogle.html
5 Cfr. https://techinquiry.org/SiliconValley-Military/
6 https://www.nbcnews.com/tech/tech-news/ ... uiet-ties- between-big-tech-u-s-n1233171
7 https://www.nbcnews.com/tech/tech-news/ ... uiet-ties- between-big-tech-u-s-n1233171
8 https://www.ft.com/content/541f0a02-ea2 ... 048c40040d
9 https://time.com/6691662/ai-ukraine-war-palantir/
10 Cfr. https://exactitudeconsultancy.com/it/re ... e-in-mili- tary-market/
11 BlackRock possiede il 4% di BAE Systems, il 5,5% di Northrop Grumman, è il terzo azio nista di RTX-Raytheon Technologies con il 7,6% e di Lockheed Martin (7,7%), il secondo azionista di L3Harris Technologies con l’8,7%, di IBM (8,2%) e di Boeing (6%); Vanguard possiede il 3,6% di BAE Systems, è il secondo azionista di Northrop Grumman con l’8,1%, di RTX-Raytheon Technologies (8,7%) e di Lockheed Martin (9%), il primo azionista di L3Harris Technologies con il 12%, di IBM (9,6%) e di Boeing (8,10%); Thales è una società francese controllata dal Ministero economico francese con il 26%, Rafael Advanced Defense Systems è una multinazionale israeliana di proprietà statale
12 BlackRock è il secondo azionista di C3.ai. con il 5,5%, di Palo Alto Networks (24,7%), di KLA Corporation (8,4%) e di Synopsys (8,1%), è il primo azionista di Cadence Design Systems con l’11,3% e il terzo azionista di UiPath con il 5,2%; Vanguard è il primo azionista di C3.ai. con l’8,8%, di UiPath (8,2%), di Palo Alto Networks (29,3%), di KLA Corporation (9,7%) e di Synopsys (9%) e il secondo azionista di Cadence Design Systems con il 9,1%
13 Cfr. https://overseas.mofa.go.kr/eng/brd/m_5 ... seq=322590
14 https://www.government.nl/ministries/mi ... iten/reaim
15 Cfr. https://reaim2023.org/programme/#programme
16 Cfr. https://www.government.nl/binaries/gove ... lications/ 2023/02/16/reaim-2023-endorsing-countries/Endorsing+Countries+and+Territories+ REAIM+Call+to+Action.pdf
17 https://www.government.nl/binaries/gove ... Action.pdf
18 Cfr. M.T. Ribeiro, S. Singh, C. Guestrin, “Why Should I Trust You?”: Explaining the Predic- tions of Any Classifier, Cornell University, 16 febbraio 2016, https://arxiv.org/abs/1602.04938
19 Cfr. AA.VV., ChatGPT e model collapse. AI che si addestrano su dati generati da AI, Paginauno 83, luglio 2023 e Giovanna Cracco, Il mondo di ChatGPT. La sparizione della realtà, Paginauno n. 82, aprile 2023
20 Cfr. Renato Curcio, Sovraimplicazioni: capitalismo cibernetico, intelligenza artificiale, Gaza, resistenza, pag. 50

Immagine
MEGLIO LICANTROPI CHE FILANTROPI

Baalkaan hai la machina targata Sassari?

VE LA MERITATE GEGGIA

Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77444
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#441 Messaggio da Drogato_ di_porno »

Immagine
Immagine
Immagine
non so niente, non mi importa niente, non mi occupo di niente, non credo niente e non voglio niente

Avatar utente
Paperinik
Storico dell'impulso
Storico dell'impulso
Messaggi: 29190
Iscritto il: 31/08/2002, 2:00
Località: In giro per la mia mente

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#442 Messaggio da Paperinik »

Altro bagascione virtuale..certo che le fanno bone
https://www.instagram.com/millasofiafin/
"E' impossibile", disse il cervello.
"Provaci!", sussurrò il cuore.
"Vai via, brutto!", urlò la ragazza.

06/06/2019 FIRENZE LIBERA
https://www.youtube.com/watch?v=0Zp9AmCfWbI

Avatar utente
Fuente
Veterano dell'impulso
Veterano dell'impulso
Messaggi: 3029
Iscritto il: 21/08/2016, 19:11

gnocca fake IA

#443 Messaggio da Fuente »

Così, per caso, mi appare il seguente post FB nel mio feed.
Immagine
facebook.com/labuonaeducazione/posts/pfbid02qFQHhqiGy6bsTY659xkUQPfHi9VnLHNfiBGEKhRpYjUwqhBVte8usWWr9KUZnt7Ll
Oltre 23K likes, 3600 commenti, e chissà quante views.

Uno su due piedi si chiede chi sia questo figone allucinante, ma dopo pochissimo inizia a sorgerti un dubbio.
E, pur non sapendo quanto sia affidabile il sito, in effetti:
Immagine

Provando invece con un'altra immagine:
Immagine

Però, oh, intanto le "interazioni" di cui sopra le ha ottenute.
E anche i meno sprovveduti non è che per ogni immagine possan mettersi ad indagare.

Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77444
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#444 Messaggio da Drogato_ di_porno »

gira e rigira son tutte sexy terminator
non so niente, non mi importa niente, non mi occupo di niente, non credo niente e non voglio niente

Avatar utente
Miele Cinese
Primi impulsi
Primi impulsi
Messaggi: 48
Iscritto il: 08/10/2024, 15:10

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#445 Messaggio da Miele Cinese »


Avatar utente
Paperinik
Storico dell'impulso
Storico dell'impulso
Messaggi: 29190
Iscritto il: 31/08/2002, 2:00
Località: In giro per la mia mente

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#446 Messaggio da Paperinik »

"E' impossibile", disse il cervello.
"Provaci!", sussurrò il cuore.
"Vai via, brutto!", urlò la ragazza.

06/06/2019 FIRENZE LIBERA
https://www.youtube.com/watch?v=0Zp9AmCfWbI

Avatar utente
dostum
Storico dell'impulso
Storico dell'impulso
Messaggi: 22631
Iscritto il: 18/12/2001, 1:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#447 Messaggio da dostum »

“L’Ucraina punta sui robot killer”. Via alla produzione di massa di droni guidati dall’AI
Per Kiev è la risposta vincente contro le ondate di tank di Mosca e l’interminabile esercito russo

Roma, 16 novembre 2024 - Per vincere la guerra contro la Russia l'Ucraina punta sui droni. Con una popolazione che è il quarto di quella russa, Kiev finora ha contato sugli aiuti arrivati dall'Occidente e sul vantaggio tecnologico in fatto di droni che le ha permesso di respingere i tank e le inesauribili fanterie russe. Quindi deve sempre più puntare sui 'robot killer', aumentando la produzione di droni guidati da computer che presto supererà la produzione dei, molti ancora artigianali, FPV (Cioè "first-person view", guida a vista dell'operatore, ndr). Droni capaci di saper distinguere autonomamente il bersaglio, economici e resistenti ai disturbi elettronici sono la chiave per respingere Putin.
Immagine[/img]
Sempre più robot killer
Questi nuovi droni, chiamati dal Wall Street Journal in un articolo 'robot killer' sono stati creati per selezionare e colpire bersagli senza necessità del controllo umano, automatizzati e diretti con i dati elaborati dall'intelligenza artificiale. I vantaggi sono molteplici e vanno dal risparmio in vite umane (Ma anche in numero di soldati impegnati in compiti come l'identificazione dei bersagli e l'attacco), al risparmio economico in paragone a missili e proiettili di artiglieria più costosi, che con l'avvento di Trump Kiev non potrebbe più permettersi.

Quindi via alla produzione in serie di 'robot killer' per sfornare droni d'attacco robotici su scala industriale grazie al salto di qualità che sta offrendo la tecnologia sempre più economica dei computer e gli sviluppi dell'AI. Unico ostacolo al piano di Kiev resta il disturbo elettronico russo che mette fuori uso i droni. Ma anche qui la ricerca avviata all'inizio della guerra ha fatto passi da gigante trovando contromisure, e ora si parla anche di un solo pilota in grado di controllare uno sciame di droni che volano e si coordinano autonomamente.
La guerra dei droni
In guerra i droni ormai fanno tutto, ricognizione, soccorso e bombardamento. In battaglia l'Ucraina ha fatto affidamento a droni come il grande Bayraktar-TB2 turco, apertura alare di 12 metri, il kamikaze Switchblade-300 di produzione Usa, l'equivalente del Shahed-136 iraniano utilizzato dai russi. O il drone a lunghissimo raggio Sokol-300, una evoluzione del Bayraktar TB2. Ma l'esercito ucraino agli inizi ha puntato molto anche di piccoli UAV, magari non nati per andare in guerra, come i cinesi Mavic 3, molto economici ed usati anche dai russi, utilizzati sia per la ricognizione che per l'attacco: si applicava al drone una granata da sganciare sui nemici.

Palyanitsia, droni drago e Mangusta: Kiev si difende
Dalla Germania sono arrivati poi i Vector, droni di ricognizione con una autonomia di due ore. Da ricordare anche i modelli EVO II e Matrice 300. Poi tante piccole realtà come il drone OCA, costruito da una piccola azienda di Kharkiv, il modello antiaereo Tallon, prodotto sempre a Kharkiv e dotato di centinaia di sfere d'acciaio, i Wild Hornets, usati per missioni kamikaze. Kiev ha anche pensato al lungo raggio e visto che i missili a di grande gittata tardavano ad arrivare ha iniziato con una produzione interamente nazionale a sfornare il missile-drone Palyanitsia, un ibrido relativamente piccolo che può trasportare solo poche decine di chilogrammi di esplosivo, ma che racchiude le caratteristiche di entrambi grazie alla agilità di un drone e alla velocità e gittata di un missile balistico. Di recente si è parlato dei ‘droni drago’ (dragon drones) anche grazie a un video che mostra la loro devastante azione con con munizioni alla termite. In mare ci sono i terribili droni marittimi Magura V5, definiti gli squali del Mar Nero, capaci di intimorire la Flotta Russa in Crimea.


L’Intelligenza artificiale e i rischi
In tutti questi droni, più o meno, l'AI è già in uso e verrà sempre più sviluppata garantendo di diminuire i rischi per il personale militare che non sarà direttamente coinvolto. Questi sistemi di intelligenza artificiale permettono possono elaborare informazioni più velocemente di un essere umano e indirizzare al meglio l'azione del drone, ma, è l'altra faccia della medaglia, non posso distinguere tra soldato russo e ucraino, tra militare e civile.

Immagine
MEGLIO LICANTROPI CHE FILANTROPI

Baalkaan hai la machina targata Sassari?

VE LA MERITATE GEGGIA

Avatar utente
Miele Cinese
Primi impulsi
Primi impulsi
Messaggi: 48
Iscritto il: 08/10/2024, 15:10

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#448 Messaggio da Miele Cinese »

Grazie Dostum,sempre sul pezzo:sarebbe una figata di film!

Avatar utente
dostum
Storico dell'impulso
Storico dell'impulso
Messaggi: 22631
Iscritto il: 18/12/2001, 1:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#449 Messaggio da dostum »

Miele Cinese ha scritto:
17/11/2024, 14:55
Grazie Dostum,sempre sul pezzo:sarebbe una figata di film!
Purtroppo non lo è

Modello Due descrive un ipotetico mondo futuro dove la Russia ha sferrato un attacco nucleare agli Stati Uniti d'America e questi hanno risposto con un contrattacco nucleare scatenando una guerra nucleare. Dopo la guerra nucleare i civili e il governo statunitense si sono trasferiti sulla Luna, lasciando sulla Terra i soldati a combattere una guerra di posizione con l'Armata Rossa. Gli statunitensi per difendersi dalle incursioni russe alle loro fortificazioni hanno sviluppato delle apparecchiature meccaniche in grado di attaccare autonomamente i Russi e anche in grado di autoripararsi. Queste apparecchiature sono chiamati Artigli (Screamers) e non attaccano anche l'esercito statunitense solo perché tutti i soldati U.S.A. sono dotati di una particolare piastrina magnetica che li rende immuni. Gli Artigli però evolvono autonomamente e sviluppano dei nuovi modelli che prima distruggono l'esercito russo e poi colpiscono anche l'esercito statunitense. Questi nuovi modelli non essendo prodotti dall'uomo non riconoscono la piastrina. Il protagonista del racconto è il maggior Hendricks che ha il compito di recarsi nell'avamposto Russo per discutere a proposito delle condizioni di pace, per sancire la fine della logorante guerra. Uscito allo scoperto trova un bambino con in braccio un orsacchiotto, lo prende sotto la sua ala protettrice e lo conduce con se fino all'avamposto Russo. Quando arrivano dei Russi sparano al bambino e rivelano la sua reale identità, è un nuovo tipo di robot, il Modello Tre, terribile arma di distruzione. Questo nuovo modello, che si chiama in codice David, ha agito in combinazione col Modello Uno (Soldato Ferito) per distruggere l'avamposto Russo. Queste informazioni gli vengono rivelate dagli unici tre sopravvissuti, due soldati russi e una prostituta, che non si trovavano nell'avamposto al momento del massacro. Con loro Hendricks decide di tornare alla base U.S.A. per avvertire i suoi compagni ma, durante il tragitto, credendo si trattasse di un nuovo modello di robot, uno dei due soldati uccide l'altro, che in realtà era umano. Arrivati alla base, si scopre che sono già tutti morti, e che l'altro soldato è un robot, precisamente il Modello Quattro. Hendricks e la prostituta si recano all'astronave di salvataggio per raggiungere la Base sulla Luna, e lei riesce a convincerlo che andrà sulla Luna a chiamare rinforzi e tornerà per salvarlo. Una volta partita, Hendricks si rende conto del terribile errore, in quanto capisce che lei è il famigerato Modello Due. L'unica soddisfazione del maggiore prima di morire è il constatare che gli Artigli hanno già iniziato ad eliminarsi tra di loro.
Immagine
MEGLIO LICANTROPI CHE FILANTROPI

Baalkaan hai la machina targata Sassari?

VE LA MERITATE GEGGIA

Avatar utente
Drogato_ di_porno
Storico dell'impulso
Storico dell'impulso
Messaggi: 77444
Iscritto il: 20/06/2002, 2:00

Re: (OT) Metaverso, droidi e varie porcherie futuristiche

#450 Messaggio da Drogato_ di_porno »

Le influencer create dall'Intelligenza artificiale rubano il lavoro a quelle vere (anche nel porno)

https://www.corriere.it/tecnologia/24_n ... 9xlk.shtml
non so niente, non mi importa niente, non mi occupo di niente, non credo niente e non voglio niente

Rispondi

Torna a “Ifix Tcen Tcen”