Passa ai contenuti principali

Post in evidenza

Modelli base e sampling: il ragionamento nascosto

  Cosa succede se il tuo modello linguistico è molto più intelligente di quanto sembri — ma non lo stai usando nel modo giusto? È questa la domanda che guida il lavoro di Karan e Du nel loro studio del 2025, Reasoning with Sampling . Il risultato è una proposta tanto sottile quanto potenzialmente dirompente: modificando la strategia di campionamento durante l’inferenza , si può ottenere un miglioramento significativo nella capacità di ragionamento di un modello linguistico base — senza toccare l’addestramento. Nel mondo dei grandi modelli linguistici (LLM), dove ogni punto percentuale di accuratezza costa milioni in compute, questa possibilità suona come un invito all’ottimizzazione intelligente: spremere di più da ciò che già abbiamo, senza inseguire l’ennesimo fine‑tuning. Il modello base non è stupido: lo stai solo interrogando male Tradizionalmente, l’inferenza nei modelli linguistici segue strategie di campionamento relativamente semplici: top‑k , nucleus sampling , temperatu...

Takamaka: NFT, smart contract and perpetual data archiving

Takamaka is a #storage that supports the storage of data, guaranteeing a form of immutability that is not eroded over time, placing itself already in the #web3 range, capable of guaranteeing access to digital files properly stored and packaged, ready to encode NFT Java contracts executed with #Hotmoka (TAKAMAKA).

Takamaka offers inexpensive storage that permanently stores data on the Blockchain, plus it offers a unique solution for decentralised, permanent, censorship-resistant and immutable web storage, where you pay and upload only once!