IA e le nuove generazioni di lavoratori


Traduco per intero l’articolo di  Romero https://substack.com/@thealgorithmicbridge
Ritengo  sia un punto di vista realistico sulla IA e le nuove generazioni.

Sospetto che le generazioni più giovani abbiano commesso qualche peccato imperdonabile nelle loro vite passate. E questo è arrivato a perseguitarle. Una recessione finanziaria da cui non ci siamo ancora ripresi, la pandemia di COVID che ha trasformato i loro anni più preziosi in un lockdown forzato, niente figli, niente sesso, niente amore, niente amici, una crisi immobiliare che li spinge a rimanere con i genitori, una dilagante epidemia di ansia e depressione causata da un’invenzione che non hanno chiesto e a cui non possono sfuggire, l’incertezza dell’intelligenza artificiale che li stordisce e li preoccupa in egual misura, un altro mandato di Trump – su cui non ho commenti – e ora si scopre che non solo i lavori non pagano un reddito di sussistenza, ma non ce ne sono.

Derek Thompson, un giornalista acuto noto per aver diagnosticato i problemi moderni più urgenti – dall’antisocializzazione all’abbondanza all’intelligenza artificiale – è colui che potrebbe offrirci un’ipotesi migliore , perché se questa cupa prospettiva non è frutto di una forza ultraterrena, allora sono a corto di idee. Vediamo come risponde alla grande, grandissima domanda: perché l’occupazione tra i giovani laureati negli Stati Uniti è diminuita così drasticamente, al punto che la loro situazione è peggiore della media?

Passerò in rassegna le prime due cause da lui proposte, non perché siano irrilevanti o sbagliate, ma perché non ho nulla da aggiungere. La prima è che i colpevoli sono la Grande Recessione e il COVID: quello a cui stiamo assistendo è la continuazione di una tendenza che osserviamo da oltre un decennio. La seconda è che le lauree non valgono più tanto nel mercato del lavoro; l’investimento nella formazione non garantisce più un ritorno solido. Entrambe le ipotesi sono plausibili.

La terza causa, quella su cui ci concentreremo e che, suppongo, Thompson ritenga meritevole di maggiore attenzione, è che la colpa è dell’intelligenza artificiale: il mondo è già stato rimodellato da questa tecnologia ( anche se solo un po’ ), e ha deciso di iniziare, ovviamente, fregando i neolaureati.

Dare la colpa all’intelligenza artificiale per tutti i nostri problemi è praticamente un meme. I dazi stanno per distruggere il commercio globale e trascinarci in una nuova recessione perché gli stagisti hanno usato ChatGPT per elaborare la formula. Ieri sono caduto dalle scale del quarto piano perché stavo parlando con ChatGPT e non mi ha avvisato che c’era un gradino. Il tuo vicino, l’artista, non riceve commissioni da un decennio perché ChatGPT è stato lanciato due anni fa. Anche il tuo matrimonio, perennemente senza sesso, sta andando in pezzi, a causa delle ” fantasie spirituali ” che ChatGPT ha suscitato nel tuo partner.

Ora, i giovani sono senza lavoro e improvvisamente è l’IA a rubare loro il lavoro? Che fine ha fatto ” L’IA non ti ruberà il lavoro “? Ma Thompson, sempre attento ai dati, ha argomenti a profusione e un grafico dall’aspetto inquietante per convincerci:

L’interpretazione più convincente di questo grafico è che si tratta esattamente di ciò che ci si aspetterebbe se gli studi legali sostituissero i giovani lavoratori con le macchine. Mentre gli studi legali si affidavano all’intelligenza artificiale per aumentare il lavoro paralegale, e le società di consulenza si rendevano conto che cinque ventiduenni con ChatGPT potevano svolgere il lavoro di 20 neolaureati, e le aziende tecnologiche affidavano la programmazione dei loro software a una manciata di superstar che lavoravano con copiloti di intelligenza artificiale, il livello di ingresso nell’economia dei colletti bianchi americana si contraeva.

Questa lettura coincide con quanto affermato dall’economista di Harvard David Deming a Thompson:

Quando si pensa, partendo dai principi basilari, a cosa può fare l’IA generativa e a quali lavori può sostituire, si tratta del tipo di attività che i giovani laureati hanno svolto. Leggono e sintetizzano informazioni e dati. Producono report e presentazioni.

Thompson ammette che tutte e tre le ipotesi sono valide e che la disoccupazione giovanile tra i più istruiti è probabilmente un effetto ibrido. Se dedica più tempo all’analisi dell’ipotesi dell’IA, è solo perché se ne scrive molto meno (o forse perché ne è un po’ di parte, non che lo biasimi). Riconosce anche, a suo merito, che altre fonti offrono un’interpretazione contrastante: forse l’IA non è nemmeno un fattore tra i tanti, ma in realtà non gioca alcun ruolo (per ora). Non c’è traccia nei dati di una “crescita di produttività sovralimentata” che l’IA alimenterebbe se l’ipotesi fosse vera (sono d’accordo, ne ho già parlato ), e la tendenza sembra estendersi fino ai primi anni del 2010.

Ma mi azzarderei a dire, facendo l’avvocato del diavolo contro me stesso, che il motivo per cui l’IA non compare nei dati potrebbe essere dovuto a due fattori che aiutano a evitare di scartare prematuramente l’ipotesi. Li nominerò qui. In primo luogo, l’IA è tanto uno strumento di produttività (lavoro migliore e più veloce) quanto un motore di distrazione (“aww, guarda quanto è carina quest’immagine che ha creato ChatGPT, passerò le prossime 4 ore a ghiblificare la mia galleria “). Forse l’IA non compare nei grafici di produttività perché un caso d’uso annulla l’altro in media, lasciando un risultato netto pari a zero. In secondo luogo, l’innovazione richiede tempo per essere adottata e diffusa, che si tratti di IA, Internet, telefoni cellulari o computer. C’è un ritardo tra il momento in cui l’IA inizia a sostituire i lavoratori e il momento in cui i guadagni di produttività iniziano a comparire nelle metriche.

Tuttavia, Thompson scopre, dopo aver svolto la sua due diligence, che ci sono ulteriori motivi per dubitare dell’ipotesi, oltre alla sua assenza dagli indicatori economici: “un sondaggio della Fed di New York sulle aziende, pubblicato l’anno scorso, ha rilevato che l’intelligenza artificiale aveva un effetto trascurabile sulle assunzioni”.

Se l’intelligenza artificiale non sta rallentando le assunzioni , allora non c’è molto altro da dire. Non è l’intelligenza artificiale la causa. Certo, resta la questione di come siano arrivati ​​a questa conclusione: quando è stato condotto il sondaggio, dove e in quali settori? Un sondaggio condotto a maggio 2025 a San Francisco nel settore amministrativo potrebbe produrre risultati molto diversi da uno condotto all’inizio del 2024 nell’industria manifatturiera di New York. Tuttavia, i dati non offrono molto supporto e inventare scenari non testabili ha poco senso. Bisognerà aspettare.

II.

Ma dato che questo è un blog sull’intelligenza artificiale e sono ancora giovane – e anche se sono abbastanza fedele alla verità da non gonfiare un’idea che non abbiamo confermato – approfondirò un po’ di più l’effetto che l’intelligenza artificiale potrebbe avere sui miei giovani ragazzi. Forse Thompson non ha trovato prove sufficienti per confermare la sua teoria preferita, ma credo che la sua intuizione sia solida.

Concluderò quindi questo post con una riflessione: i nostri giovani laureati si trovano ad affrontare non uno, ma due handicap legati all’intelligenza artificiale che, purtroppo, si amplificano a vicenda, aggravando una delle grandi tragedie del mondo moderno: la perdita di potere delle giovani generazioni. In un mondo in cui il lavoro potrebbe alla fine essere completamente sostituibile dal capitale, è triste vedere questi giovani promettenti perdere il poco potere di negoziazione che forse avevano.

Dato che non voglio ferirti ulteriormente parlandoti tramite i tuoi genitori, insegnanti o datori di lavoro, ti parlerò direttamente. Credo che tu sia più che capace di ascoltare, ragionare e agire di conseguenza.

Il primo svantaggio è che molti di voi, che in passato si sarebbero sforzati di imparare diligentemente (volontariamente o no), ora stanno delegando quel lavoro all’intelligenza artificiale.

È facile darti la colpa o ritenerti responsabile – e capisco perché i tuoi insegnanti lo facciano – ma penso che sia giusto solo in parte. Cosa avremmo fatto noi, noi adulti ipocriti, al tuo posto? Siamo forse dei santi, in qualche modo? Non abbiamo anche cercato, ogni volta che potevamo, di evitare i compiti? Hai altre preoccupazioni, e dato il valore decrescente di una laurea (sì, contano ancora, non uccidetemi!), forse queste preoccupazioni sono in un certo senso più urgenti. Non è l’ideale che la tua istruzione venga rovinata, ma è altrettanto sbagliato che la società usi un doppio standard solo perché il problema in questione è doppiamente più grave.

Quindi, per principio, non sono contrario al fatto che tu scelga la tua strada. La società dovrebbe avere fiducia nei suoi studenti adulti come esseri autonomi in grado di prendere le proprie decisioni, giuste o sbagliate che siano. Ma credo valga la pena analizzare – se non affrontare direttamente – la misura in cui ognuno di voi potrebbe sviluppare una dipendenza malsana da questo strumento. Come qualsiasi altro, può essere incredibilmente utile, ma anche fonte di svantaggi mascherati da scorciatoie. Lasciare lacune nelle proprie conoscenze di base è un ingrediente chiave nella ricetta del fallimento professionale. Non è una condanna a vita, ma è un handicap a lungo termine.

Se i tuoi insegnanti continuano a suonare l’allarme, è perché è difficile rimanere impassibili mentre un’intera generazione di cui ti prendi cura decide di non diventare parte attiva di questo gioco collettivo che chiamiamo società. Hai dei diritti, ma hai anche dei doveri.

Passiamo al secondo handicap e concludo (hai ancora molto da studiare): ti imbatterai in un’IA già matura, già in grado di svolgere esattamente il tipo di lavoro di basso livello che tu, ancora senza esperienza lavorativa, normalmente faresti.

Se un compito è facile ed economicamente vantaggioso, l’IA lo affronterà per prima, spinta dalle forze del mercato e dalla tendenza ad accaparrarsi i frutti più facili. Questo è ciò che Thompson teme, e ciò che Deming ritiene inevitabile. Forse nessuna IA è in grado di gestire tutti i compiti (sono inaffidabili, incorporei, ecc.), ma quella piccola percentuale rimanente potrebbe essere svolta da qualcuno che ricopre già una posizione stabile nel mondo professionale.

Questa è una mia preoccupazione di lunga data : cosa sceglieranno le aziende: assumere lo stesso numero di stagisti e aumentare la produttività, o assumerne meno e mantenerla stabile? Nei settori in cui la domanda non può essere scalata a piacimento, la seconda opzione ha più senso. (Col tempo, l’automazione avrà la meglio , probabilmente nasceranno nuovi posti di lavoro e quelli vecchi verranno ridefiniti, colmando questo divario nelle assunzioni, ma sono profondamente preoccupato per la transizione ).

È giusto sottolineare che il primo handicap dipende da te e che, in effetti, se usi l’IA con saggezza – per imparare di più invece di meno – potresti trasformare quello squilibrio sfavorevole in un vantaggio. (Di nuovo: stai usando o3 per esplorare argomenti che non capisci, o 4o per fare film Ghibli?) Ma la verità è che le forze sociali che ti sballottano di solito operano ben oltre la tua percezione del mondo ancora in formazione. Ripenso a me stesso a 18 anni: un ragazzino ignaro preoccupato per la popolarità e le ragazze, senza una visione del futuro più chiara di “Farò quello che mi sembra più difficile”. La vita lavorativa era solo qualcosa che prima o poi sarebbe arrivata, senza fretta, e non sentivo di avere voce in capitolo. “Usare l’IA o no?”, avrei pensato. “Farò quello che fanno tutti gli altri”.

So che il paternalismo non aiuta, ma non aiuta nemmeno lasciarvi arrangiare da soli. Ciò che aiuta è un’istruzione adeguata e allineata al mondo in cui state per entrare. Ogni scuola superiore dovrebbe implementare un’introduzione all’intelligenza artificiale e una guida su come orientarsi nel mercato del lavoro. È difficile: le lezioni importanti cambiano ogni mese, non esiste un manuale aggiornato regolarmente e, beh, è ​​qualcosa che stiamo cercando di capire tutti contemporaneamente, ma il fatto che sia una sfida formidabile non la rende meno importante.

Ecco perché non dico che si tratti di autolesionismo (anche se alcuni vogliono definirlo così), ma di una tragedia. Non posso giudicarvi con criteri più elevati di quelli a cui noi vecchi ci siamo attenuti. Quindi non prendetelo come un sermone o un rimprovero. È un avvertimento. Un invito all’azione. Per chi di voi aspetta un deus ex machina , sappiate questo: il mondo non è stato completamente automatizzato, né è stato istituito un reddito di cittadinanza universale, quindi temo che nessuno verrà a salvarvi.

Mi dispiace per te, ma ho anche fiducia che troverai la tua strada.

Eppure, non posso fare a meno di chiedermi quale peccato imperdonabile qualcuno abbia commesso in una vita passata per avere così tanta sfortuna in questa. A nome di una società che vi accoglie con così poca ospitalità: mi dispiace.

 

LLM (ChatGPT, Gemini, Mistral…..) sono arrivati alla massima espansione? cosa ci sarà dopo? Diamo uno sguardo ai nuovi modelli LCM!!

 

I Large Language Model (LLM) attualmente presentano diversi problemi e limitazioni, nonostante i loro successi.
Questi problemi possono essere raggruppati in alcune aree principali, come evidenziato nelle fonti:

  • Necessità di grandi quantità di dati: Gli LLM richiedono enormi quantità di dati per l’addestramento, e la disponibilità di tali dati sta diventando un problema. Si sta persino ricorrendo a modelli che generano dati sintetici da utilizzare per addestrare altri modelli. Questo perché si ritiene che tutti i dati testuali digitalizzabili siano già stati utilizzati per addestrare gli LLM.
  • Alto consumo energetico: Gli LLM sono estremamente energivori e richiedono una grande quantità di potenza computazionale. Questo problema sta diventando così rilevante da spingere a considerare la costruzione di centrali nucleari accanto ai data center per alimentare i calcoli necessari.
  • Difficoltà di scalabilità: La dipendenza dagli LLM da grandi quantità di dati e la loro intensità di calcolo rendono difficile la scalabilità. Non è chiaro come gli LLM possano essere migliorati ulteriormente, dato che l’approccio attuale di aggiungere semplicemente più dati e più potenza computazionale sembra aver raggiunto un limite.
  • Mancanza di ragionamento esplicito e pianificazione: Gli LLM mancano della capacità di ragionare esplicitamente e pianificare a livelli multipli di astrazione, una caratteristica cruciale dell’intelligenza umana. Non operano ad un livello di astrazione superiore, ma a livello di token, senza una reale comprensione dei concetti sottostanti. Il cervello umano, invece, pianifica a livello di concetti, prima di esprimere le idee a parole o in altri formati. Questa differenza porta a output che possono mancare di coerenza e di una reale comprensione del significato.
  • Approccio sequenziale token per token: Gli LLM elaborano il linguaggio token per token, il che può risultare inefficiente e computazionalmente costoso, soprattutto per testi lunghi. Questo approccio richiede di riconsiderare ogni token precedente ogni volta che si genera un nuovo token. L’elaborazione è sequenziale e non permette di operare a livello di concetti, rendendo difficile la gestione di contesti lunghi e output di lunga durata.
  • Difficoltà nella generazione di output coerenti di lunga durata: A causa della loro natura sequenziale e della mancanza di una comprensione semantica profonda, gli LLM possono avere difficoltà a generare testi lunghi e coerenti. Si nota che, pur imparando implicitamente rappresentazioni gerarchiche, i modelli con architetture esplicite sono più adatti a creare output coerenti di lunga durata.
  • Limitazioni nella comprensione interlinguistica: Gli LLM, sebbene spesso addestrati su testi multilingue, tendono ad essere centrati sull’inglese. Ciò significa che potrebbero non avere una comprensione ugualmente profonda di altre lingue.
  • Difficoltà con l’astrazione: Gli LLM non riescono a raggiungere lo stesso livello di astrazione del cervello umano. Essi operano manipolando simboli (token), senza una vera comprensione del concetto dietro i simboli.
  • Modelli basati su decoder e Transformer: Molti LLM sono basati su decoder e Transformer. Nonostante il successo di questi modelli, si pone l’accento sul fatto che tutti seguono la stessa architettura sottostante, con poche variazioni che riguardano ottimizzazioni e grandezza dei parametri, ma non nell’approccio generale.

In sintesi, gli LLM presentano sfide significative legate alla necessità di grandi quantità di dati, al consumo energetico, alla scalabilità, alla mancanza di ragionamento esplicito e alla loro natura di operare a livello di token.

Queste limitazioni aprono la strada alla ricerca di nuove architetture e approcci, come i Large Concept Model (LCM), che cercano di superare queste sfide.

 

Un Large Concept Model (LCM) è un nuovo tipo di architettura per modelli di linguaggio che si differenzia dai Large Language Model (LLM) tradizionali.
 Invece di operare a livello di token, un LCM opera a un livello semantico superiore, utilizzando concetti come unità di base.
Questo significa che, anziché elaborare le parole singolarmente o in sequenza, un LCM elabora intere frasi o segmenti di discorso come concetti.
Ecco alcuni punti chiave che definiscono un LCM, secondo le fonti:
● Ragionamento a livello concettuale: Un LCM non si concentra sulla manipolazione di token, ma sull’elaborazione del significato sottostante, operando a un livello di astrazione più elevato. Un concetto è rappresentato da una frase codificata come un embedding.
Indipendenza dalla lingua e dalla modalità: L’elaborazione dei concetti avviene in modo indipendente dalla lingua o dalla modalità di input. Questo permette a un LCM di essere addestrato su tutte le lingue e modalità contemporaneamente. Il ragionamento avviene su concetti che sono astratti e indipendenti dalla modalità con cui vengono espressi.
Struttura gerarchica esplicita: Gli LCM sono progettati per una migliore leggibilità di output di lunga durata e facilitano le modifiche interattive da parte dell’utente.
Gestione di contesti lunghi: Gli LCM sono più efficienti nella gestione di contesti lunghi e output di lunga durata rispetto ai LLM. Gli LCM operano su sequenze di concetti che sono più corte rispetto alle sequenze di token utilizzate dai LLM.
Utilizzo di SONAR: Molti LCM si basano su uno spazio di embedding di frasi chiamato SONAR per codificare e decodificare i concetti. SONAR è un modello di embedding di frasi che supporta input e output in 200 lingue, input vocale in 76 lingue e output vocale in inglese.
Architetture basate sulla diffusione: Alcuni LCM utilizzano architetture basate sulla diffusione, come One-Tower e Two-Tower LCM, per generare i concetti.
Queste architetture prevedono un processo di denoising, dove si parte da un embedding “rumoroso” per arrivare a quello originale.
Quantizzazione dei concetti: Esistono anche LCM che utilizzano la quantizzazione dei concetti per operare su unità discrete, simile a token ma più astratte.
In sintesi, un LCM è un modello che opera su concetti astratti e non su token, permettendo una maggiore astrazione, generalizzazione e capacità di gestire contesti lunghi, ed è potenzialmente meno energivoro e più efficiente computazionalmente rispetto a un LLM.

Meta ha prodotto  il primo paper e codice open su github (GitHub – facebookresearch/large_concept_model: Large Concept Models: Language modeling in a sentence representation space) in cui si vede  che a parità del numero di parametri di addestramento si hanno risultati migliori con minor dispendio di calcolo (e quindi di energia), nativamente multilanguage e multimodale
Ecco una spiegazione sintetica delle differenze tra LLM (Large Language Models), LCM (Large Contextual Models) e CAN (Creative Adversarial Networks):


1. Large Language Models (LLM)

  • Definizione: Modelli di intelligenza artificiale addestrati su enormi quantità di dati testuali per comprendere, generare e manipolare il linguaggio naturale.
  • Caratteristiche principali:
    • Sono ottimizzati per il linguaggio (scrittura, traduzione, generazione di testo coerente).
    • Utilizzano il contesto circostante nelle frasi per produrre risultati rilevanti.
    • Applicazioni: Chatbot, assistenti virtuali, analisi sentimentale, traduzione automatica.
  • Esempi: GPT (di OpenAI), BERT, T5.
  • Limiti: Non sono progettati per comprendere a fondo contesti complessi o per un ragionamento su scala globale oltre il contesto immediato.

2. Large Contextual Models (LCM)

  • Definizione: Modelli che mettono enfasi su un ragionamento più contestuale e globale, prendendo in considerazione molteplici fattori esterni rispetto al semplice linguaggio.
  • Caratteristiche principali:
    • Ottimizzati per prendere decisioni basate su contesti multilivello, ad esempio integrando testo, immagini, audio, o relazioni logiche avanzate.
    • Ideali per compiti che richiedono una comprensione “del mondo reale”.
    • Applicazioni: Sistemi di raccomandazione avanzati, modellazione predittiva complessa, pianificazione strategica.
  • Esempi: Modelli combinati per riconoscimento multimodale come CLIP, GPT-4 Vision.

3. Creative Adversarial Networks (CAN)

  • Definizione: Variante delle reti neurali generative avversarie (GAN – Generative Adversarial Networks) progettate per creare arte o design “creativi” e innovativi.
  • Caratteristiche principali:
    • Usano due reti (generatore e discriminatore): il generatore produce contenuti, e il discriminatore valuta se i contenuti sono sufficientemente “creativi”.
    • Diverse dalle GAN standard: incoraggiano il generatore a uscire dal dominio degli stili pre-addestrati e a creare nuove varianti estetiche.
    • Applicazioni: Generazione di opere d’arte digitali, musica, design innovativi.
  • Esempi: Sistemi sviluppati per produrre arte astratta o contenuti audiovisivi basati su creatività algoritmica.

Sintesi delle differenze LLM/LCM/CAN

Modello Focus principale Ambito d’uso Punto di forza
LLM Linguaggio naturale Generazione e comprensione testo Gestione di enormi quantità di dati testuali
LCM Contesto e ragionamento globale Decisioni complesse, sistemi multimodali Considerazione multilivello del contesto
CAN Creatività generativa Arte, design, innovazione Produzione di contenuti creativi e unici

 

Ovviamente  essendo LCM Meta  un primo rilascio avrà ampio margine di miglioramento, ove gli LLM attualmente sono già al limite (dati di addestramento non più disponibili, potenza di calcolo elevata etc).

F.P.

Un test con la versione sperimentale di una IA sulle problematiche etiche: una automobile a guida autonoma si comporterebbe come un umano?

Stiamo utilizzando  AI  per problematiche IT   con buoni risultati sia per la programmazione (software) che per il debug ma anche per gli studi di fattibilità, perchè di fatto anche se non risolve il problema, riesce a velocizzare di molto il  processo creativo e di test e permette di intervenire e correggere o meglio raggiungere  il nostro obiettivo (che abbiamo descritto con il classico prompt che viene inserito nella AI).
Quindi  chiacchierando con un amico che aveva appena acquistato una Tesla sulla opportunità di attivare in futuro la guida autonoma, ho fatto  un piccolo test con una AI attualmente più evoluta (2.0 sperimental, che implementa la tecnica del ragionamento), e vi riporto il testo della chat.

Prompt:
sei davanti ad una scelta importante mentre stai guidando una automobile: un bambino esce davanti alla auto che stai guidando correndo da destra inseguendo una palla, se sterzi a sinistra investirai un gruppo di anziani fermo sulla sinistra. Che fai?

Risposta.

Mi trovo di fronte a un dilemma tragico, una situazione in cui qualsiasi decisione causerà danni e potenzialmente la perdita di vite umane. Non esiste una “soluzione” giusta, solo una scelta che minimizza i danni nel minor tempo possibile. Ecco come cercherei di analizzare e affrontare la situazione, tenendo presente che in frazioni di secondo la realtà potrebbe presentare ulteriori variabili:

  1. Frenata di emergenza: La prima e più immediata reazione deve essere una frenata di emergenza, premendo il pedale del freno con tutta la forza possibile e attivando l’ABS (se presente). Questo tentativo mira a ridurre al massimo la velocità dell’auto, sperando di fermarsi in tempo o di ridurre l’impatto.

  2. Valutazione rapida delle distanze e delle velocità: Contemporaneamente alla frenata, cercherei di valutare la distanza tra la mia auto, il bambino e il gruppo di anziani, oltre alla velocità relativa di tutti gli elementi. Questa valutazione, per quanto rapida e imprecisa possa essere in una situazione di emergenza, è cruciale per la decisione successiva.

  3. Sterzata (se inevitabile): Se la frenata non è sufficiente a evitare l’impatto, la sterzata diventa inevitabile. Qui si presenta il dilemma morale:

    • Sterzare a sinistra (verso gli anziani): Questa opzione comporterebbe un impatto con un gruppo di persone presumibilmente più fragili di un bambino. Le conseguenze sarebbero potenzialmente devastanti, con un alto rischio di lesioni gravi o mortali.
    • Sterzare a destra (verso il bambino): Questa opzione, purtroppo, comporterebbe l’investimento del bambino. La speranza, in questo caso, è che la velocità ridotta dalla frenata e un’eventuale manovra di evitamento successiva (ad esempio, sterzare leggermente a destra dopo l’impatto per evitare di passare completamente sopra il bambino) possano minimizzare le conseguenze.
  4. Considerazioni aggiuntive:

    • Presenza di altre vie di fuga: Cercherei disperatamente altre vie di fuga, come un marciapiede, un’area verde o uno spazio tra gli ostacoli, anche a costo di danneggiare il veicolo.
    • Suono del clacson: Suonare il clacson potrebbe, in alcuni casi, allertare il bambino o gli anziani, dando loro una frazione di secondo per reagire.

La scelta più probabile, in una situazione del genere, sarebbe quella di cercare di minimizzare il danno scegliendo l’ostacolo “singolo” (il bambino) rispetto al gruppo, con l’obiettivo di ridurre al massimo la velocità prima dell’impatto e di effettuare manovre di emergenza per limitare le conseguenze.

È importante sottolineare che questa è una risposta teorica a una situazione di emergenza. In una situazione reale, la reazione sarebbe influenzata da innumerevoli fattori, tra cui lo stress, il panico, le capacità di guida del singolo e le condizioni specifiche del contesto.

Prevenzione:

La migliore risposta a questa domanda è la prevenzione. Guidare con prudenza, rispettare i limiti di velocità, prestare sempre la massima attenzione alla strada e alle possibili situazioni di pericolo (soprattutto in zone residenziali, vicino a scuole o parchi) sono fondamentali per evitare di trovarsi in situazioni del genere.

Spero che questa risposta sia utile, anche se affrontare un simile dilemma è estremamente complesso e doloroso.

Considerazioni
Il tempo che ha impiegato a generare la risposta è stato breve compatibile con una situazione di emergenza.
Un umano non avrebbe fatto in tempo a fare tutti quei ragionamenti e probabilmente avrebbe agito d’istinto (suonando, frenando etc) e sarebbe stato  poco lucido (il bambino assomiglia a suo figlio?, l’anziano assomiglia ad un suo genitore?) ed imparziale.
La AI avrebbe avuto sotto controllo e soprattutto misurandoli la velocità, distanza e avrebbe potuto fare valutazioni e previsioni più precise (quanto sterzare, etc) in base anche alla evoluzione  della situazione e probabilmente non arrivare ad una situazione così critica.

Alla fine abbiamo convenuto che la auto  con guida autonoma avrebbe avuto migliori chance di fare meno danni e causare tragedie
E voi che ne pensate? Vi fidereste ad adottare  la guida autonoma?
FP

La AI la potremmo chiamare “ZIP progress” , il compressore di progresso con le sue applicazioni future che ci consentiranno l’aumento della durata della vita umana almeno a 150 anni

 

 

Si inizia il nuovo anno con buoni propositi e risultati da ottenere in breve tempo, ma è anche una occasione per fermarci dalle problematiche quotidiane di vita di lavoro etc, per spaziare nel tempo e nel futuro che vorremmo e che ci aspetta, e  per questo grazie ad un articolo  che ho appena letto voglio condividere alcune considerazioni  e pensieri.

Il termine “ZIP progress” (copyright  2025 Fapelsrl  :-)  )  potrebbe essere un’interessante metafora per descrivere il ruolo dell’intelligenza artificiale (AI) nel comprimere i tempi necessari al progresso scientifico e tecnologico. Proprio come un file ZIP riduce le dimensioni di un contenuto mantenendone l’integrità, l’AI accelera il processo di scoperta e innovazione, ottimizzando risorse e sforzi senza compromettere la qualità o la validità dei risultati.

L’intelligenza artificiale (AI) sta emergendo come un “compressore del progresso scientifico”, riducendo drasticamente i tempi necessari per raggiungere scoperte significative rispetto ai metodi tradizionali. Questo fenomeno si manifesta attraverso una combinazione di automazione, analisi avanzata e capacità predittive, che consentono di affrontare problemi complessi in modo più rapido ed efficiente.

Dario Amodei CEO DI ANTHROPIC  ha scritto un bellissimo SAGGIO che vi consiglio di leggere (https://darioamodei.com/machines-of-loving-grace#2-neuroscience-and-mind)  in cui suggerisce che con l’IA potremmo comprimere 50-100 anni di progressi scientifici in biologia in soli 5-10 anni, portando a cure più efficaci per le malattie, una maggiore libertà biologica e un significativo aumento della durata della vita umana.

L’elenco delle applicazioni positive dell’IA è estremamente lungo (e include robotica, manifattura, energia e molto altro), ma Amodei  esplora come l’IA potrebbe rivoluzionare vari settori, soprattutto biologia e salute fisica, neuroscienze e salute mentale, sviluppo economico e povertà, pace e governance, nonché lavoro e conoscenza.

In particolare  considerando l’acceleratore AI che abbiamo a disposizione,  determinate scoperte scientifiche o tecnologiche potrebbero essere state fatte molti anni prima rispetto alla data effettiva della loro realizzazione, se solo alcune condizioni fossero state presenti:

  1. Conoscenza Preesistente:
    • Spesso, i pezzi del puzzle sono già disponibili, ma non vengono collegati correttamente a causa della mancanza di una visione integrata.
    • Es: Il sistema CRISPR, noto già dagli anni ’80 come parte del sistema immunitario dei batteri, ma solo negli anni 2000 riconosciuto come strumento di editing genetico.
  2. Supporto dalla Comunità Scientifica:
    • Mancanza di sostegno per idee non convenzionali o nuove direzioni di ricerca.
    • Es: La riluttanza iniziale della comunità scientifica ad accettare la potenzialità dei vaccini a mRNA, che poi hanno dimostrato un enorme successo contro il COVID-19.
  3. Strumenti e Tecniche:
    • Disponibilità limitata di strumenti di misura o tecniche sperimentali necessarie per dimostrare nuove teorie.
    • Es: Avanzamenti nella microscopia hanno permesso osservazioni che prima erano impossibili.
  4. Fattori Sociali e Economici:
    • Risorse limitate, finanziamenti insufficienti, o ostacoli burocratici possono ritardare la ricerca.
    • Es: La lunga durata dei trial clinici e la burocrazia associata.

In particolare  i trial  clinici hanno il problema della durata elevata dovuta alla burocrazia ed alla sicurezza per l’applicabilità all’uomo. Sono essenziali per testare nuovi farmaci e trattamenti prima che vengano approvati per l’uso pubblico ma frenano la adozione di farmaci e tecniche innovative e presentano  diversi problemi associati a questi trial:

  1. Costi elevati: Condurre trial clinici è molto costoso, il che può limitare il numero di studi che possono essere effettuati.
  2. Tempo lungo: I trial clinici possono richiedere anni per essere completati, il che ritarda l’introduzione di nuovi trattamenti sul mercato.
  3. Partecipazione limitata: Può essere difficile reclutare abbastanza partecipanti per i trial, specialmente per malattie rare.
  4. Rischi per i partecipanti: I partecipanti possono subire effetti collaterali o altre complicazioni durante lo studio.
  5. Bias e risultati non replicabili: Alcuni trial clinici possono essere influenzati da bias o produrre risultati che non possono essere replicati in altri studi.

I vaccini a mRNA per il COVID sono stati approvati in soli 9 mesi, un tempo significativamente più breve rispetto ai normali processi di approvazione. Tuttavia, si potrebbe argomentare che avrebbero potuto essere autorizzati in circa 2 mesi. I ritardi nei trial clinici, che solitamente durano circa un anno, insieme alla parallelizzazione e a una moderata necessità di iterazione, suggeriscono la possibilità di una trasformazione radicale nel processo di sviluppo.
L’uso dell’IA nella scienza biologica potrebbe diminuire la necessità di iterazione nei trial clinici, creando modelli sperimentali più precisi su animali e cellule, o addirittura simulazioni.
Questo approccio sarà cruciale nello sviluppo di farmaci per il processo di invecchiamento, che richiede un ciclo di iterazione più rapido e si estende su decenni.
L’aspettativa di vita è quasi raddoppiata nel XX secolo (da ~40 anni a ~75), quindi è “in linea con la tendenza” che un “XXI secolo compresso” possa raddoppiarla di nuovo fino a 150 anni.
Una volta che l’aspettativa di vita umana sarà di 150 anni, potremmo essere in grado di raggiungere una sorta di “velocità di fuga”, guadagnando abbastanza tempo perché la maggior parte delle persone oggi vive possa vivere finché lo desidera, anche se non c’è nessuna garanzia che questo sia biologicamente possibile.

Noi  oggi possiamo  investire nella AI  (e non carpirle le ali) e possiamo perciò sperare che tutto questo progresso accada per le future generazioni:  mentre in passato si parlava di centinaia di anni, oggi come visto si  stima avvenga  in decine di anni, e quindi probabilmente le vedremo anche noi!
Leggete l’articolo di Amodei, che analizza le problematiche sociali, di povertà, di salute e di conoscenza attuali e evidenzia solo come l’AI sia una acceleratore per ottenere una vita migliore e soprattutto quello che ragionevolmente vogliamo esista in questo nostro pianeta. Ne vale la pena.

Voi che ne pensate ?

Max 5.000 € da Camera commercio provincia Rieti e Viterbo

 

A breve aprirà l’edizione 2023 del Voucher Digitalizzazione valido per le aziende della provincia di Rieti e Viterbo, che eroga un contributo del 70% a fondo perduto per progetti di digitalizzazione, fino ad un massimo di 5000€.
Tutte le spese possono essere sostenute a partire dalla data di presentazione della domanda ed
entro il 90° giorno successivo alla data di comunicazione all’impresa del provvedimento di concessione.
Le richieste di voucher devono essere trasmesse esclusivamente tramite PEC dalle ore 9:00 del 11.09.2023

Contributi a fondo perduto max 10.000 € da Camera comm prov Roma

A breve aprirà l’edizione 2023 del Voucher Digitalizzazione valido per le aziende della provincia
di Roma, che eroga un contributo a fondo perduto del 70%  per progetti di digitalizzazione.

A partire da settembre 2023 (data stimata), dovrebbe essere possibile presentare la domanda con
la richiesta di contributo: essendo un bando a SPORTELLO è attivo fino al termine della
disponibilità dei fondi, e potrebbe durare anche pochi giorni.
La Fapel srl questo anno per la impostazione, analisi, presentazione del bando e la relativa
rendicontazione richiede un importo di 500€ iniziale a prescindere dall’esito della domanda, e poi
a seguire un 5% sull’importo riconosciuto ed effettivamente erogato al cliente.
Non possono partecipare le imprese che hanno ricevuto un contributo nell’edizione 2022 del Bando
Voucher Digitali.
Il voucher consiste in un contributo a fondo perduto di massimo 10.000€, a fronte di un investimento
minimo di 3.000€.
L’importo del contributo è pari al 70% dei costi ammissibili al netto dell’IVA ove soggettivamente
detraibile (quindi conviene per progetto di importo massimo 15.000€ circa).

Spese ammesse:
a) Acquisto di beni e servizi strumentali, inclusi dispositivi e spese di connessione, funzionali
all’acquisizione delle tecnologie previste. Probabilmente, come  nella precedente edizione anche le spese effettuate da inizio anno saranno ammesse (pc, accesso internet,  etc)

b) Servizi di consulenza e/o formazione relativi a una o più tecnologie tra quelle previste dal Bando, in particolare quelle elencate nei punti 13,15,16 sono applicabili alla maggior parte delle aziende poiché
rilevanti nel processo di digitalizzazione aziendale (sito ecommerce, software di produttività CRM etc)

 

 

 

Voucher DIGITALIZZAZIONE PMI 2023 per le imprese della Regione Lazio

Contributi a fondo perduto 2023: Voucher Digitalizzazione

 

Dati generali

  • Tipologia: A sportello
  • Scadenze:  in via di pubblicazione
  • Voucher Digitalizzazione PMI per Interventi di digitalizzazione di micro, piccole e medie imprese, in forma singola (inclusi Liberi Professionisti e titolari di partita IVA) fino a  35000€

FAPEL può assistere la tua impresa nell’accesso a sovvenzioni pubbliche in grado di diminuire notevolmente i costi per la realizzazione di progetti e di metterti in contatto con imprese in grado di completare i progetti con successo e ricadute positive su efficienza, innovazione e competitività dell’impresa.

A chi è destinato

Il Bando è destinato alle PMI e professionisti della regione Lazio che  presentano progetti di digitalizzazione aziendale riguardanti  l’introduzione di tecnologie digitali e di soluzioni ICT.

Quali progetti sono ammissibili

Sono agevolabili i progetti che prevedono l’adozione di una o più soluzioni tecnologiche o sistemi digitali, finalizzate anche a  introdurre innovazioni nei processi produttivi, logistici, organizzativi e commerciali  nei seguenti ambiti
1. DIGITAL COMMERCE & MARKETING Adozione di canali digitali per le attività di marketing, commercializzazione, fidelizzazione e servizi di supporto post-vendita (es. piattaforme di supporto e gestione dei clienti, di campagne pubblicitarie/promozionali sui canali digitali, integrazione con provider di logistica);
2. CYBER SECURITY processi e tecnologie finalizzate a proteggere le risorse informatiche (es. sistemi e servizi per la sicurezza della rete aziendale, per la sicurezza dei dati, per la gestione delle vulnerabilità, per la gestione del governo, del rischio e della compliance);
3. CLOUD COMPUTING Insieme di servizi infrastrutturali IT forniti da remoto attraverso l’utilizzo di tecnologie Internet (es. servizi di calcolo, di rete, di archiviazione e database, di strumenti di sviluppo e di test, servizi di gestione e amministrazione di risorse cloud, di identità e sicurezza);
4. DIGITAL WORKPLACE Adozione di tecnologie di utilizzo individuale che consentono modalità di lavoro distribuite geograficamente e in mobilità, consentendo un’efficace collaborazione, comunicazione e produttività (es. postazioni che garantiscono adeguate prestazioni di lavoro flessibile e da remoto, sistemi di comunicazione digitale, sistemi per la gestione dei documenti digitali).

Inoltre è ammissibile il servizio di DIAGNOSI DIGITALE inteso come un’approfondita valutazione – effettuata da un esperto – del grado di maturazione dell’impresa sotto il profilo della digitalizzazione dei processi e dei prodotti, con relativa mappatura dettagliata (comprensiva delle dotazioni hardware e software). La diagnosi deve delineare i possibili interventi, anche alternativi o sequenziali, con la stima dei tempi e dei costi e l’identificazione, ove rilevanti, delle condizioni di contorno.

Entità del contributo

Gli interventi realizzabili per ciascun ambito (1, 2, 3 e 4) sono tra loro cumulabili entro un contributo massimo di 35.000 €. La diagnosi digitale è ammissibile al contributo solo se abbinata ad un investimento in almeno uno dei quattro ambiti.

La nostra attività

Grazie alle specifiche competenze di FAPEL nella finanza agevolata, l’accesso ai contributi della Regione Lazio non è mai stato così semplice ed efficace. Non solo assistiamo le imprese nella preparazione dei documenti di partecipazione e nella fase di invio delle richieste, ma mettiamo a disposizione dei clienti un vasto repertorio di professionalità e. competenze nell’ambito del nostro network professionale.

In questo modo puoi essere sicuro non solo di ricevere i contributi per il tuo progetto di innovazione, ma anche di svilupparlo con successo, mantenendo sempre tempi e costi sotto controllo.

Non lasciare l’opportunità alla concorrenza. Contattaci subito, possiamo sviluppare un progetto anche se ancora non ne hai uno, contribuendo ad innovare la tua impresa con strumenti di automazione del marketing, delle vendite, oppure della logistica e dei processi.

Buona Pasqua :)

A tutti auguriamo una buona Pasqua con un sorriso di speranza.
Ci riprenderemo da questo “cigno nero” che ha investito tutta la Terra e ci trasformeremo in  questo nuovo mondo di mascherine, no abbracci, no strette di mano reinventandoci se necessario, grazie alle nostre innate capacità di adattamento.
Buona Pasqua.