Negli ultimi anni la crescita dei modelli di intelligenza artificiale ha seguito una traiettoria chiara: più parametri, più capacità, più generalità. Meno chiaro è stato il prezzo pagato lungo questa traiettoria: instabilità interna. Le allucinazioni non sono un bug semantico. Sono un problema strutturale. Quando un modello cresce, il modo in cui l’informazione attraversa i suoi strati diventa fragile. Non perché manchi conoscenza, ma perché il segnale si degrada, si amplifica o si disperde mentre avanza. Il paper pubblicato dal team DeepSeek affronta questo nodo intervenendo dove il problema nasce davvero: nell’architettura dei flussi informativi. Non nei dati. Non nel prompting. Nella geometria interna del modello. Il punto di partenza è noto. I modelli deep sono catene di trasformazioni: ogni layer riceve un segnale, lo modifica e lo passa avanti. Per evitare che l’informazione “si perda per strada”, l’industria ha introdotto da tempo le residual connections , scorciato...
La privacy, nel lessico delle criptovalute, non è mai stata un valore assoluto. È sempre stata una proprietà emergente, dipendente dal comportamento degli utenti, dalle scelte di design del protocollo e, soprattutto, dal modo in cui le transazioni vengono osservate. L’idea che una blockchain pubblica potesse garantire anonimato era sostenibile solo in una fase iniziale, quando il volume dei dati era ridotto e gli strumenti di analisi ancora rudimentali. Oggi quella fase è chiaramente superata. Il lavoro di ricerca presentato nella tesi di Haaroon M. Yousaf, discussa presso University College London , parte proprio da questo punto: non chiedersi se le criptovalute siano private in astratto, ma fino a che punto lo siano operativamente , quando inserite in un ecosistema reale fatto di scambi, incentivi e abitudini ripetitive . Bitcoin, come è noto, non è mai stato anonimo. È pseudonimo. Gli indirizzi non portano un nome, ma i legami tra indirizzi sono spesso sufficienti a ricostru...