Siamo lieti di invitarvi all AI SUMMIT LONDON il 14 e 15 Giugno 2023
Venite a visitarci al Booth 103 dove presenteremo la nostra Tecnologia Leale dotata di IA PERSONALE
We are glad to invite you to THE AI SUMMIT LONDON – 14th and 15th June 2023
Come and visit us : Booth 103 where we will show our LOAL TECHNOLOGY with PERSONAL AI
In uno scenario globale dove la tecnologia è stata plasmata per raccogliere dati in maniera continuativa ed illimitata mettendo a rischio non solo la privacy, ma la capacità di competere di aziende ed industrie, gli assetti democratici e la tenuta di una sana e pacifica convivenza fra i popoli, andando contro corrente presentiamo la nostra TECNOLOGIA LEALE con IA PERSONALE.
Una tecnologia nativamente confacente al GDPR perchè focalizzata sulla privacy : il bello della tecnologia senza il lato oscuro della “smart” technology
Perché quando i servizi sono gratuiti, il prodotto sei tu ( i tuoi cari, il tuo lavoro, le tue proprietà, la tua salute, i tuoi sacrosanti segreti )
Pensare di essere liberi ed autonomi quando tutte o la maggior parte delle fonti informative “transitano” e sono fruibili sullo schermo dello “smartphone” è una illusione pericolosissima.
Qualcuno se n’è accorto ma ancora molti, troppi, o non sanno o fanno finta di non sapere.
Chi non sa ma decide, è doppiamente colpevole in quanto non danneggia solo se stesso, ma anche coloro per i quali dovrebbe assumere scelte razionali e per il beneficio di tutti.
Chi sa e fa finta di non sapere, è semplicemente un lupo vestito da agnello con un guinzaglio corto e stretto tenuto fra le grinfie di chi vuole controllare tutto e tutti senza competere lealmente.
In questo scenario desolante assistiamo ad autoreferenziali “guru” sedicenti esperti di innovazione e tecnologia che avallano una tecnologia sleale e per la quale nella migliore delle ipotesi raccolgono le briciole più piccole di business incentrati sulla profilazione incrociata per alimentare gemelli digitali da dare in pasto ad algoritmi predittivi.
I creatori di IA stanno lanciando appelli per valutarne i pericoli.
Quando un pazzo pensa a cose assurde, fintanto che rimangono confinate nel suo cervello, poco è il pericolo per gli altri.
Il reale pericolo si concretizza quando dal pensiero si passa all’azione.
Allora il pazzo, squilibrato, allucinato, in preda a delirio di onnipotenza, quando ha la possibilità di mettere in atto le conclusioni di un processo mentale distorto e basato su principi deformati e idee estreme, crea danni, enormi.
La storia ce ne ha dato ampia contezza.
L IA non è differente dal pazzo.
Fintanto che rimane confinata in server per “esercizi di stile” , nulla quaestio.
Nel momento esatto in cui l IA ha la possibilità di APPLICARE scelte e discriminazioni nel modo reale , il pericolo da potenziale, diventa REALE.
Tentare di regolare LA IA per come è stata ingegnerizzata e strutturata andando a “cibarsi” di tutto ciò che ha rilevanza digitale, SENZA EX ANTE inserire principi e regole di sana convivenza o se vogliamo delle basi per distinguere quanto i concetti puri del “bene” e del “male” sono incastonati in realtà miscelate ove si necessita di spirito critico per contestualizzarle , è come voler insegnare ad un assassino seriale a diventare un buon samaritano.
Per uscire da questo cul de sac la nostra ricetta è quella di tante IA quante sono le persone che ne possono fruire : democratizzare la stessa IA orchestrando con principi la compartecipazione della miriade di DIVERSE e DIFFERENTI IA ciascuna con una propria “formazione” derivata dagli input e degli ambienti di riferimento specifici, alla risoluzione di problemi generali o particolari.
Un coro di IA invece che un solista che tutto decide …anche quando farci ascoltare melodie dissonanti spacciate per opere prime.
ComputArte è TECNOLOGIA LEALE e IA PERSONALE.
Cybertec Services Srl, ComputArte, Mood06 Arredo e Arte copright – All Rights Reserved. E’ consentita la riproduzione e la condivisione esclusivamente collegando la notizia a questo articolo ed a questo sito ufficiale https://www.computarte.it/ Roma 09 Giugno 2023