Suoko

joined 2 years ago
MODERATOR OF
[–] Suoko@feddit.it 1 points 1 hour ago

They do not differ too much from a rpbi5 in price, I know they're slower but but almost fully open. https://a.aliexpress.com/_ExWZQ5a

And I didn't know that the loongson boards (similar to riscv but closed source) have reached the power of a core i5: https://wccftech.com/china-loongson-3a6000-cpu-reaches-core-i5-14600k-performance-clock-to-clock-test-overclocked-to-3-ghz

 

What's missing now?

[–] Suoko@feddit.it 2 points 1 day ago* (last edited 1 day ago)

They will be implemented when a typescript or python clone will be created

[–] Suoko@feddit.it 11 points 2 days ago* (last edited 2 days ago)

I'd add:

  • Mageia (French)
  • Zorin OS (Ireland)
  • Ufficio Zero (Italy)

Last option but better for an easy migration: linuxfx.org

[–] Suoko@feddit.it 2 points 4 days ago

When everyone will have a 50G PON fiber connection at home, IPFS is going to be the standard serverless configuration.

2030? Everyone uses that date for everything futuristic

[–] Suoko@feddit.it 1 points 4 days ago

Snaps, flatpck and app images, everything works ok usually on Ubuntu (if you have plenty of drive to store them all)

[–] Suoko@feddit.it 13 points 4 days ago

Make him a present, some winter vacations in Switzerland and some summer ones in Italy. Cool those US guys down, down to the bottom of earth

[–] Suoko@feddit.it -3 points 4 days ago (1 children)

It's comparing lemmy to Reddit, not to the twitter zombie

[–] Suoko@feddit.it 9 points 5 days ago

So we can suspect that the US is joining Russia against UE because UE is pushing electricity against the oil&gas driven old world.

[–] Suoko@feddit.it 1 points 5 days ago

People is not very keen to follow the rearm leaders

https://feddit.it/post/15743177

[–] Suoko@feddit.it 1 points 6 days ago

I ask myself:

  1. in more than two years Russia wasn't able to occupy Ukraine, do they really have the strength and money to start other battle fronts?

  2. why would Russia ever want some more land from Europe? Oil and gas are not here

  3. where are politicians gone? Are they there only to manage weapons now? We could pay only the soldiers then

[–] Suoko@feddit.it 2 points 6 days ago

1...2...3...done

 

Hanno imparato da certi manager sempre di "apparente" fretta

 

Nessuno può leggere la mente di Vladimir Putin. Ma possiamo leggere il libro che predice la politica estera imperialista del leader russo. Il romanzo utopico del 2006 di Mikhail Yuriev, The Third Empire: Russia as It Ought to Be , anticipa, con sorprendente precisione, la strategia di guerra ibrida della Russia e le sue recenti campagne militari: la guerra del 2008 con la Georgia, l'annessione della Crimea del 2014, l'incursione nelle regioni di Donetsk e Luhansk nello stesso anno e l'attuale assalto della Russia all'Ucraina.

Una pubblicazione russa lo ha descritto come "il libro preferito del Cremlino".

 

DeepSeek R1 ha segnato la strada, adesso tutti gli altri vogliono procedere a ruota. L'obiettivo? Aumentare le prestazioni dei modelli di intelligenza artificiale contenendo i costi, anzi, cercando di ridurli dove possibile. Un traguardo che si è posta Alibaba con QwQ-32B. Il team ha svelato il suo LLM open source con 32 miliardi di parametri, progettato per migliorare le prestazioni in attività di risoluzione di problemi complessi. Un modello che distingue per l'utilizzo dell'apprendimento per rinforzo (RL), tecnica che consente all'AI di imparare attraverso tentativi ed errori, ottimizzando le sue risposte nel tempo.

LICENZA OPEN

Disponibile su Hugging Face e ModelScope il vero punto di svolta è la licenza Apache 2.0, che permette a QwQ-32B di essere utilizzato liberamente per scopi commerciali e di ricerca. Dalla prima release di QwQ a fine novembre, il panorama dell'AI si è evoluto rapidamente. Di recente è cresciuto molto l'interesse per i large reasoning models (LRM), una nuova categoria di sistemi AI che utilizzano il ragionamento inferenziale e l'auto-riflessione per migliorare l'accuratezza. Tra questi rientrano la serie o3 di OpenAI e DeepSeek-R1.QwQ-32B rappresenta un'evoluzione del modello QwQ introdotto da Alibaba quasi cinque mesi fa. Questa nuova versione presenta diverse innovazioni, oltre ad una lunghezza del contesto estesa a 131.000 token, simili ai 128.000 dei modelli di OpenAI e di molti altri, ma decisamente inferiore ai 2 milioni di token di Gemini 2.0.

 

La corsa al predominio nel settore dell'AI potrebbe avere nuovo protagonista: Mistral AI abbandona l'approccio conservativo mantenuto fino a oggi e libera i suoi modelli, lanciando il guanto di sfida a DeepSeek. "Nessuno può restare in cima per sempre" - con questa filosofia Arthur Mensch, CEO di Mistral AI, ha annunciato la decisione di rendere open-source i modelli dell'azienda europea. In un settore dove colossi come OpenAI e Google custodiscono gelosamente i propri algoritmi come fossero il segreto della Coca-Cola, Mistral sceglie di condividere anziché nascondere

 

Manca solo misskey all'appello. Davvero un bel rostro che può far breccia. Ci fosse qualcosa anche per Lemmy+Mbin+Piefed ...

 

Basta cambiare la cartella dei prefix e farla combaciare con quella di winetricks nel caso

 

Does anyone know what technology is used to create this flatpak? Is it archon? Or else?

view more: next ›