[02/12/2025]
Dalla Redazione di AIsemplice.biz
Tra bolle finanziarie e agenti onnipotenti: l'AI al bivio
Benvenuti in una settimana che definire 'intensa' sarebbe un eufemismo diplomatico. Mentre Anthropic lancia una sfida diretta a OpenAI con un modello che programma meglio degli umani e costa meno, assistiamo a una curiosa partita a scacchi sul fronte hardware: Google inizia a vendere i suoi chip a Meta per erodere il monopolio di Nvidia. Ma non è tutto luccichio tecnologico. Dietro le quinte delle infrastrutture miliardarie (come i 50 miliardi messi sul piatto da AWS per il governo USA), si allunga l'ombra di una possibile bolla finanziaria, alimentata da debiti colossali e accordi circolari che stanno iniziando a preoccupare gli analisti. E mentre la Cina conquista l'oro matematico con modelli open source, Andrej Karpathy (tra i fondatori di OpenAI) ci ricorda che, alla fine, potremmo semplicemente far 'discutere' i modelli tra loro per ottenere la verità. Una settimana di paradossi: l'AI diventa sempre più potente e costosa da costruire, ma sempre più economica e accessibile da usare. Buona lettura.
È arrivato Claude Opus 4.5 di Anthropic: AI più economica, chat infinite e capacità di programmazione superiori agli umani
Anthropic ha scosso il mercato rilasciando Claude Opus 4.5, il suo modello di intelligenza artificiale più avanzato fino ad oggi. La mossa è aggressiva sia sul fronte delle prestazioni che su quello commerciale: il nuovo modello riduce i prezzi del 67% rispetto alla generazione precedente, intensificando la guerra dei prezzi con i rivali OpenAI e Google. Ma è nelle capacità tecniche che Opus 4.5 brilla davvero. In test interni di ingegneria del software, il modello ha superato ogni singolo candidato umano nella storia dell'azienda, raggiungendo un impressionante 80,9% di accuratezza sul benchmark SWE-bench Verified. Questo risultato lo pone davanti a giganti come GPT-5.1-Codex-Max e Gemini 3 Pro. Alex Albert di Anthropic descrive i miglioramenti nel ragionamento come una sorta di nuova 'intuizione' della macchina, permettendo la delega di compiti sempre più complessi. L'efficienza è un altro punto chiave: Opus 4.5 utilizza fino al 76% di token in meno per compiti simili rispetto a Sonnet 4.5, e introduce un parametro di sforzo che permette agli sviluppatori di bilanciare costi e prestazioni. Tra le novità funzionali spiccano le 'infinite chats', che eliminano i limiti di contesto, e la capacità di scrivere ed eseguire codice autonomamente. Anthropic ha anche svelato agenti 'auto-miglioranti' che apprendono iterativamente, una tecnologia già testata da aziende come Rakuten. Con ricavi annualizzati raddoppiati a 2 miliardi di dollari, Anthropic dimostra che la competizione per l'AI di frontiera è tutt'altro che conclusa, anche se la redditività resta la sfida a lungo termine.
Anthropic ha scosso il mercato rilasciando Claude Opus 4.5, il suo modello di intelligenza artificiale più avanzato fino ad oggi. La mossa è aggressiva sia sul fronte delle prestazioni che su quello commerciale: il nuovo modello riduce i prezzi del 67% rispetto alla generazione precedente, intensificando la guerra dei prezzi con i rivali OpenAI e Google. Ma è nelle capacità tecniche che Opus 4.5 brilla davvero. In test interni di ingegneria del software, il modello ha superato ogni singolo candidato umano nella storia dell'azienda, raggiungendo un impressionante 80,9% di accuratezza sul benchmark SWE-bench Verified. Questo risultato lo pone davanti a giganti come GPT-5.1-Codex-Max e Gemini 3 Pro. Alex Albert di Anthropic descrive i miglioramenti nel ragionamento come una sorta di nuova 'intuizione' della macchina, permettendo la delega di compiti sempre più complessi. L'efficienza è un altro punto chiave: Opus 4.5 utilizza fino al 76% di token in meno per compiti simili rispetto a Sonnet 4.5, e introduce un parametro di sforzo che permette agli sviluppatori di bilanciare costi e prestazioni. Tra le novità funzionali spiccano le 'infinite chats', che eliminano i limiti di contesto, e la capacità di scrivere ed eseguire codice autonomamente. Anthropic ha anche svelato agenti 'auto-miglioranti' che apprendono iterativamente, una tecnologia già testata da aziende come Rakuten. Con ricavi annualizzati raddoppiati a 2 miliardi di dollari, Anthropic dimostra che la competizione per l'AI di frontiera è tutt'altro che conclusa, anche se la redditività resta la sfida a lungo termine.
AWS investe 50 miliardi di dollari per l'infrastruttura AI del governo statunitense
Amazon Web Services (AWS) ha annunciato un piano di investimento massiccio da 50 miliardi di dollari, destinato esclusivamente alla costruzione di infrastrutture AI per il governo degli Stati Uniti. L'iniziativa mira a garantire alle agenzie federali l'accesso a strumenti di calcolo ad alte prestazioni e ai servizi di punta come Amazon SageMaker, Bedrock e il chatbot Claude di Anthropic, in ambienti sicuri e controllati. Il progetto prevede l'inizio dei lavori sui nuovi data center nel 2026, con l'obiettivo di aggiungere 1,3 gigawatt di capacità di calcolo dedicata. Il CEO di AWS, Matt Garman, ha sottolineato come questo investimento trasformerà radicalmente l'uso del supercalcolo nel settore pubblico, accelerando missioni critiche che spaziano dalla cybersecurity alla ricerca farmaceutica, abbattendo al contempo le barriere tecnologiche esistenti. AWS non è nuova a questo tipo di collaborazione, gestendo carichi di lavoro classificati sin dal lancio delle regioni Top Secret nel 2014. Tuttavia, questa mossa risponde a una crescente competizione: anche OpenAI, Google e Anthropic stanno corteggiando il governo USA con versioni dedicate o scontate dei loro modelli. L'investimento di 50 miliardi segna quindi non solo un impegno infrastrutturale, ma una mossa strategica per consolidare il dominio di Amazon nel lucroso e delicato mercato della difesa e della pubblica amministrazione, in un momento in cui l'AI è diventata una priorità di sicurezza nazionale.
Amazon Web Services (AWS) ha annunciato un piano di investimento massiccio da 50 miliardi di dollari, destinato esclusivamente alla costruzione di infrastrutture AI per il governo degli Stati Uniti. L'iniziativa mira a garantire alle agenzie federali l'accesso a strumenti di calcolo ad alte prestazioni e ai servizi di punta come Amazon SageMaker, Bedrock e il chatbot Claude di Anthropic, in ambienti sicuri e controllati. Il progetto prevede l'inizio dei lavori sui nuovi data center nel 2026, con l'obiettivo di aggiungere 1,3 gigawatt di capacità di calcolo dedicata. Il CEO di AWS, Matt Garman, ha sottolineato come questo investimento trasformerà radicalmente l'uso del supercalcolo nel settore pubblico, accelerando missioni critiche che spaziano dalla cybersecurity alla ricerca farmaceutica, abbattendo al contempo le barriere tecnologiche esistenti. AWS non è nuova a questo tipo di collaborazione, gestendo carichi di lavoro classificati sin dal lancio delle regioni Top Secret nel 2014. Tuttavia, questa mossa risponde a una crescente competizione: anche OpenAI, Google e Anthropic stanno corteggiando il governo USA con versioni dedicate o scontate dei loro modelli. L'investimento di 50 miliardi segna quindi non solo un impegno infrastrutturale, ma una mossa strategica per consolidare il dominio di Amazon nel lucroso e delicato mercato della difesa e della pubblica amministrazione, in un momento in cui l'AI è diventata una priorità di sicurezza nazionale.
L'espansione dell'infrastruttura AI guida un debito massiccio tra i principali partner tecnologici
Un'inquietante analisi del Financial Times getta ombre sulla sostenibilità economica del boom dell'AI. Il report rivela che i partner chiave di OpenAI, tra cui colossi come Oracle e Softbank, hanno accumulato circa 96 miliardi di dollari di debito per finanziare la frenetica costruzione di data center e l'acquisto di chip. Un caso emblematico è Coreweave, fornitore specializzato, le cui passività superano di gran lunga i ricavi previsti, delineando un profilo di rischio elevato. Il fenomeno è sistemico: le cinque maggiori aziende tecnologiche (inclusi Amazon e Microsoft) hanno emesso 121 miliardi di dollari di nuovo debito solo quest'anno, quadruplicando la loro media storica. Ciò che preoccupa gli analisti sono i cosiddetti 'circular AI deals': accordi in cui le aziende si finanziano a vicenda scambiando servizi e hardware. Un esempio è l'investimento di Nvidia in OpenAI e CoreWeave, che a loro volta utilizzano quei fondi per acquistare chip Nvidia, gonfiando i ricavi percepiti. Questo scenario ha fatto lievitare i costi dei credit default swap, segnalando nervosismo tra gli investitori. Sebbene gli investimenti siano in infrastrutture fisiche reali, a differenza della bolla dot-com, la mancanza di un chiaro ritorno sull'investimento (ROI) da molti progetti pilota e le valutazioni basate su una domanda futura ipotetica stanno spingendo regolatori e CFO a monitorare attentamente la situazione. Il confine tra una crescita aggressiva e una bolla speculativa non è mai stato così sottile.
Un'inquietante analisi del Financial Times getta ombre sulla sostenibilità economica del boom dell'AI. Il report rivela che i partner chiave di OpenAI, tra cui colossi come Oracle e Softbank, hanno accumulato circa 96 miliardi di dollari di debito per finanziare la frenetica costruzione di data center e l'acquisto di chip. Un caso emblematico è Coreweave, fornitore specializzato, le cui passività superano di gran lunga i ricavi previsti, delineando un profilo di rischio elevato. Il fenomeno è sistemico: le cinque maggiori aziende tecnologiche (inclusi Amazon e Microsoft) hanno emesso 121 miliardi di dollari di nuovo debito solo quest'anno, quadruplicando la loro media storica. Ciò che preoccupa gli analisti sono i cosiddetti 'circular AI deals': accordi in cui le aziende si finanziano a vicenda scambiando servizi e hardware. Un esempio è l'investimento di Nvidia in OpenAI e CoreWeave, che a loro volta utilizzano quei fondi per acquistare chip Nvidia, gonfiando i ricavi percepiti. Questo scenario ha fatto lievitare i costi dei credit default swap, segnalando nervosismo tra gli investitori. Sebbene gli investimenti siano in infrastrutture fisiche reali, a differenza della bolla dot-com, la mancanza di un chiaro ritorno sull'investimento (ROI) da molti progetti pilota e le valutazioni basate su una domanda futura ipotetica stanno spingendo regolatori e CFO a monitorare attentamente la situazione. Il confine tra una crescita aggressiva e una bolla speculativa non è mai stato così sottile.
Google punta a minacciare il dominio di Nvidia nel settore dei chip AI vendendo le sue TPU a Meta e altre aziende
In una mossa che potrebbe ridisegnare gli equilibri di potere nell'hardware per l'intelligenza artificiale, Google sta negoziando per vendere i suoi chip proprietari TPU (Tensor Processing Unit) a terze parti, tra cui il rivale Meta. Fino ad oggi, le potenti TPU erano accessibili solo attraverso i servizi cloud di Google, costituendo un vantaggio competitivo esclusivo. Il nuovo programma, denominato 'TPU@Premises', mira a posizionare Google come fornitore diretto di hardware, sfidando il dominio quasi assoluto di Nvidia nel settore. Secondo indiscrezioni riportate da The Information, Meta starebbe valutando un investimento miliardario per installare le TPU di Google direttamente nei propri data center a partire dal 2027. Per Google, l'obiettivo è ambizioso: catturare fino al dieci percento del fatturato annuale di Nvidia. Per facilitare l'adozione, Google ha anche sviluppato nuovo software che semplifica l'utilizzo di questi processori. Questa strategia segna un cambio di paradigma: Google passa da fornitore di servizi cloud a venditore di silicio, cercando di diversificare le entrate e, paradossalmente, armare i suoi competitor nel campo dei social e dell'AI pur di erodere la quota di mercato di Nvidia. Se l'accordo con Meta andrà in porto, sancirà l'inizio di una nuova guerra fredda nel mercato dei semiconduttori.
In una mossa che potrebbe ridisegnare gli equilibri di potere nell'hardware per l'intelligenza artificiale, Google sta negoziando per vendere i suoi chip proprietari TPU (Tensor Processing Unit) a terze parti, tra cui il rivale Meta. Fino ad oggi, le potenti TPU erano accessibili solo attraverso i servizi cloud di Google, costituendo un vantaggio competitivo esclusivo. Il nuovo programma, denominato 'TPU@Premises', mira a posizionare Google come fornitore diretto di hardware, sfidando il dominio quasi assoluto di Nvidia nel settore. Secondo indiscrezioni riportate da The Information, Meta starebbe valutando un investimento miliardario per installare le TPU di Google direttamente nei propri data center a partire dal 2027. Per Google, l'obiettivo è ambizioso: catturare fino al dieci percento del fatturato annuale di Nvidia. Per facilitare l'adozione, Google ha anche sviluppato nuovo software che semplifica l'utilizzo di questi processori. Questa strategia segna un cambio di paradigma: Google passa da fornitore di servizi cloud a venditore di silicio, cercando di diversificare le entrate e, paradossalmente, armare i suoi competitor nel campo dei social e dell'AI pur di erodere la quota di mercato di Nvidia. Se l'accordo con Meta andrà in porto, sancirà l'inizio di una nuova guerra fredda nel mercato dei semiconduttori.
La corsa alla regolamentazione dell'AI scatena uno scontro tra autorità federali e statali negli Stati Uniti
Si sta consumando uno scontro istituzionale negli Stati Uniti su chi debba avere l'ultima parola sulla regolamentazione dell'intelligenza artificiale. In assenza di una legge federale onnicomprensiva, i singoli stati come California e Texas hanno colmato il vuoto normativo approvando numerose leggi locali focalizzate su deepfake, trasparenza e sicurezza. Questo ha creato quello che le Big Tech definiscono un 'patchwork' insostenibile di regole diverse, che frenerebbe l'innovazione e svantaggerebbe gli USA nella competizione con la Cina. La risposta da Washington potrebbe arrivare sotto forma di 'preemption', ovvero l'annullamento delle leggi statali a favore di uno standard federale, che però al momento non esiste in forma concreta. Una bozza di ordine esecutivo trapelata suggerisce addirittura la creazione di una task force per contestare legalmente le normative statali. Il deputato Ted Lieu sta lavorando a una mega-proposta di legge federale di oltre 200 pagine per armonizzare il settore, coprendo tutto, dalla frode ai test obbligatori per i modelli. Tuttavia, c'è forte scetticismo: molti temono che bloccare gli stati senza avere una solida legge nazionale pronta lascerebbe i consumatori privi di tutele e le aziende libere di operare senza supervisione. È un braccio di ferro tra l'agilità legislativa locale e il desiderio delle corporation di avere un unico regolamento, possibilmente più blando.
Si sta consumando uno scontro istituzionale negli Stati Uniti su chi debba avere l'ultima parola sulla regolamentazione dell'intelligenza artificiale. In assenza di una legge federale onnicomprensiva, i singoli stati come California e Texas hanno colmato il vuoto normativo approvando numerose leggi locali focalizzate su deepfake, trasparenza e sicurezza. Questo ha creato quello che le Big Tech definiscono un 'patchwork' insostenibile di regole diverse, che frenerebbe l'innovazione e svantaggerebbe gli USA nella competizione con la Cina. La risposta da Washington potrebbe arrivare sotto forma di 'preemption', ovvero l'annullamento delle leggi statali a favore di uno standard federale, che però al momento non esiste in forma concreta. Una bozza di ordine esecutivo trapelata suggerisce addirittura la creazione di una task force per contestare legalmente le normative statali. Il deputato Ted Lieu sta lavorando a una mega-proposta di legge federale di oltre 200 pagine per armonizzare il settore, coprendo tutto, dalla frode ai test obbligatori per i modelli. Tuttavia, c'è forte scetticismo: molti temono che bloccare gli stati senza avere una solida legge nazionale pronta lascerebbe i consumatori privi di tutele e le aziende libere di operare senza supervisione. È un braccio di ferro tra l'agilità legislativa locale e il desiderio delle corporation di avere un unico regolamento, possibilmente più blando.
DeepseekMath-V2: L'AI cinese raggiunge l'oro alle Olimpiadi di Matematica e sfida i laboratori occidentali
La startup cinese Deepseek ha messo a segno un colpo magistrale nel mondo dell'AI accademica con il suo nuovo modello DeepseekMath-V2. Il sistema ha dimostrato capacità di ragionamento logico eccezionali, ottenendo risultati equivalenti a una medaglia d'oro alle Olimpiadi Internazionali di Matematica (IMO) 2025 e superando il record umano nella competizione Putnam. La peculiarità di questo modello risiede nella sua capacità di generare e, soprattutto, auto-verificare le dimostrazioni matematiche attraverso un processo a più stadi, senza ricorrere a calcolatrici esterne. Con un punteggio del 99% sul benchmark IMO-ProofBench Basic, DeepseekMath-V2 si posiziona a un soffio dai sistemi più avanzati (e spesso non pubblici) di Google e OpenAI. A differenza della segretezza che avvolge i laboratori americani, Deepseek continua a puntare sulla trasparenza e sull'open-source, pubblicando dettagli tecnici e offrendo modelli a costi ridotti. Questa strategia non è solo una dimostrazione di forza tecnologica, ma una sfida economica diretta al modello di business occidentale: dimostrare che l'AI di altissimo livello può essere sviluppata e distribuita in modo aperto e accessibile. I risultati suggeriscono che i modelli linguistici stanno finalmente superando la barriera del ragionamento astratto complesso, un territorio che fino a poco fa era considerato esclusivo dell'intelletto umano.
La startup cinese Deepseek ha messo a segno un colpo magistrale nel mondo dell'AI accademica con il suo nuovo modello DeepseekMath-V2. Il sistema ha dimostrato capacità di ragionamento logico eccezionali, ottenendo risultati equivalenti a una medaglia d'oro alle Olimpiadi Internazionali di Matematica (IMO) 2025 e superando il record umano nella competizione Putnam. La peculiarità di questo modello risiede nella sua capacità di generare e, soprattutto, auto-verificare le dimostrazioni matematiche attraverso un processo a più stadi, senza ricorrere a calcolatrici esterne. Con un punteggio del 99% sul benchmark IMO-ProofBench Basic, DeepseekMath-V2 si posiziona a un soffio dai sistemi più avanzati (e spesso non pubblici) di Google e OpenAI. A differenza della segretezza che avvolge i laboratori americani, Deepseek continua a puntare sulla trasparenza e sull'open-source, pubblicando dettagli tecnici e offrendo modelli a costi ridotti. Questa strategia non è solo una dimostrazione di forza tecnologica, ma una sfida economica diretta al modello di business occidentale: dimostrare che l'AI di altissimo livello può essere sviluppata e distribuita in modo aperto e accessibile. I risultati suggeriscono che i modelli linguistici stanno finalmente superando la barriera del ragionamento astratto complesso, un territorio che fino a poco fa era considerato esclusivo dell'intelletto umano.
Andrej Karpathy e il suo 'LLM Council': un'architettura di riferimento per l'orchestrazione AI
Andrej Karpathy, figura iconica dell'AI ed ex Tesla/OpenAI, ha trasformato un progetto del weekend in una lezione magistrale su come potrebbe funzionare il software del futuro. Il suo progetto 'LLM Council' non è solo un esperimento, ma un'architettura di riferimento per l'orchestrazione di più intelligenze artificiali. L'idea è semplice ma potente: invece di fidarsi di un singolo modello, una query viene sottoposta a un 'comitato' di AI diverse (GPT-5.1, Gemini, Claude, Grok). Questi modelli generano risposte, si correggono a vicenda in una revisione paritaria anonima, e infine un 'Chairman LLM' sintetizza la risposta migliore. Karpathy ha utilizzato un'architettura leggera basata su tecnologie standard (FastAPI, React) e OpenRouter per evitare il vendor lock-in, permettendo di scambiare facilmente i modelli sottostanti. Sebbene manchino funzionalità enterprise come la sicurezza avanzata, il progetto evidenzia un trend cruciale: il passaggio dall'uso di un singolo modello monolitico a sistemi composti che sfruttano i punti di forza di diverse AI. Karpathy ha provocatoriamente definito il codice moderno come 'effimero', suggerendo che in futuro le applicazioni saranno solo impalcature leggere ('scaffolding') riscritte costantemente dall'AI stessa. Il 'LLM Council' è un blueprint che demistifica l'AI, spostando il valore dalla scelta del modello alla capacità di orchestrarli e governarli efficacemente.
Andrej Karpathy, figura iconica dell'AI ed ex Tesla/OpenAI, ha trasformato un progetto del weekend in una lezione magistrale su come potrebbe funzionare il software del futuro. Il suo progetto 'LLM Council' non è solo un esperimento, ma un'architettura di riferimento per l'orchestrazione di più intelligenze artificiali. L'idea è semplice ma potente: invece di fidarsi di un singolo modello, una query viene sottoposta a un 'comitato' di AI diverse (GPT-5.1, Gemini, Claude, Grok). Questi modelli generano risposte, si correggono a vicenda in una revisione paritaria anonima, e infine un 'Chairman LLM' sintetizza la risposta migliore. Karpathy ha utilizzato un'architettura leggera basata su tecnologie standard (FastAPI, React) e OpenRouter per evitare il vendor lock-in, permettendo di scambiare facilmente i modelli sottostanti. Sebbene manchino funzionalità enterprise come la sicurezza avanzata, il progetto evidenzia un trend cruciale: il passaggio dall'uso di un singolo modello monolitico a sistemi composti che sfruttano i punti di forza di diverse AI. Karpathy ha provocatoriamente definito il codice moderno come 'effimero', suggerendo che in futuro le applicazioni saranno solo impalcature leggere ('scaffolding') riscritte costantemente dall'AI stessa. Il 'LLM Council' è un blueprint che demistifica l'AI, spostando il valore dalla scelta del modello alla capacità di orchestrarli e governarli efficacemente.