La intel·ligència artificial en distribucions Linux està deixant de ser una idea futurista per convertir-se en una realitat molt concreta: assistents de línia d'ordres, models locals que corren al teu portàtil, plataformes obertes per compartir algorismes i fins i tot visions completes de sistemes operatius nadivament orientats a IA. Tot això està passant alhora que Windows, Apple i Android empenyen les seves pròpies capes de “IA integrada” al sistema.
Al mateix temps, hi ha usuaris de Linux que miren aquest moviment amb força recel: preocupació per la privadesa, rebuig al màrqueting buit que anomena IA qualsevol cosa i por que les distros de sempre acabin plenes de serveis opacs que consumeixen recursos i espien l'usuari. Entre els que alternen Ubuntu, Linux Mint o altres distribucions, no falta qui està disposat a canviar de vaixell quan faci olor “IA invasiva”, encara que sigui “opcional”.
Linux, el codi obert i el seu paper a l'explosió de la IA
Per entendre on encaixa tot això, convé recordar que Linux és avui el pilar invisible de gran part de la infraestructura mundial: des de servidors i supercomputadors fins a la majoria de serveis cloud. El que va començar el 1991 com un projecte personal de Linus Torvalds, anunciat gairebé de passada en un fil de fòrum, va acabar sent el nucli del sistema operatiu més desplegat de la història.
En aquells missatges inicials, Torvalds reconeixia obertament que el seu sistema “no seria gran i professional com a GNU”. Ningú imaginava llavors que Linux acabaria dominant el núvol ni que gegants que ho detestaven ho adoptarien anys després. Durant temps, Microsoft va arribar a descriure Linux com “un càncer”, en una de les frases més maldestres i curt terminis que es recorden a la indústria.
Dues dècades més tard, amb Satya Nadella al comandament, el discurs va canviar al cèlebre “Microsoft ❤️ Linux”. El moviment no era postureig: avui Linux és el sistema operatiu més utilitzat a Azure. Més del 60 % de les ofertes de l'Azure Marketplace es basen en Linux, parlem d'unes 20.000 solucions, i més del 60 % dels nuclis de màquines virtuals que s'hi executen usen alguna distribució Linux.
Aquesta aposta arriba al punt que Microsoft manté el seu propi nucli, Azure Linux, pensat per a les seves càrregues i serveis, però només és un petit fragment de l'ecosistema. A Azure conviuen multitud de sabors Linux totalment suportats: Red Hat Enterprise Linux, Debian, Suse, Canonical (Ubuntu), Oracle Linux, CentOS i altres. Només aquests socis “oficials” reben al voltant de mil imatges al mes, moltes en variants especialitzades, com les edicions HPC de Suse enfocades a computació d'alt rendiment.
Tot això passa en paral·lel a una autèntica explosió de projectes de codi obert per a qualsevol funció imaginable. El model col·laboratiu descentralitzat és el que, de facto, domina la innovació en programari. I la intel·ligència artificial, que ja copa titulars i pressupostos, no podia quedar fora d'aquesta dinàmica: el futur de gran part d'aquests algorismes passa inevitablement per models oberts o, si més no, per una obertura progressiva que permeti construir solucions al seu voltant.
Models oberts, grans actors i la tensió entre negoci i comunitat
Al terreny dels grans models de llenguatge, el debat sobre obertura real davant pseudo-codi obert està a ple rendiment. Meta, per exemple, ha llançat successives versions de Flama 3, presentant-les com el camí a seguir a IA oberta, mentre manté restriccions i matisos de llicència que fan que molts experts no les considerin plenament “open source”.
Una cosa semblant passa amb Mistral, empresa francesa que s'ha fet un lloc important amb models com Mistral Large 2. Els seus releases inclouen millores notables i, alhora, llicències amb interpretacions discutibles. En qualsevol cas, per pura pressió del mercat i per la naturalesa de la comunitat tècnica, gran part d'aquests models acabaran tenint versions realment obertes, adaptades, podades i afinades per tercers.
En aquest escenari, la pregunta de fons és on és el veritable valor a la cadena de la IA. D'una banda, tenim els que se centren en desenvolupar els models base, moltes vegades cremant quantitats ingents de diners (el cas d'OpenAI és paradigmàtic). De l'altra, els actors que adopten una postura pragmàtica i aprofiten qualsevol model disponible de manera agnòstica per construir intel·ligències artificials “verticals”, ajustades a problemes concrets de negoci o contextos molt definits.
Sobre aquesta tensió s'està definint qui capturarà el valor a llarg termini: els fabricants de models gegantins o els integradors que en saben treure partit en solucions específiques. Linux i el codi obert, per la seva flexibilitat i la seva omnipresència en servidors i dispositius, són terreny fèrtil perquè sorgeixin precisament aquestes solucions verticals recolzades a IA.
La visió duna distro Linux amb IA nativa per a lusuari final
Mentre Windows Copilot Plus o les “capes intel·ligents” d'Android intenten convèncer l'usuari que la IA ha d'estar enganxada al sistema operatiu, fins i tot amb propostes de navegadors amb IA, al món del pingüí han sorgit propostes que plantegen una distribució Linux concebuda des de zero al voltant de la IA, orientada especialment a portàtils i tauletes de consum.
La idea és trencar amb la visió clàssica de moltes distros, que tracten Linux com un substrat neutre on l'usuari arma el seu entorn escollint escriptori, configurant paquets i barallant amb detalls de maquinari. Davant això, la pregunta que es proposa és: què hauria d'oferir un dispositiu domèstic el 2025? La resposta que donen els seus defensors sona clara: intel·ligència fluida integrada a cada interacció, des de la càmera i l'àudio fins al terminal.
En aquest concepte de distro nativa dIA, el sistema es lliura com un conjunt cohesionat de decisions. No es tracta només de posar un assistent a la barra superior, sinó d'introduir millores de qualitat de vida a tots els racons: càmera, micròfon, altaveus, consum energètic, llapis digital, navegador i fins i tot el gestor de contrasenyes o la VPN del sistema.
La premissa clau és que gran part daquestes funcions sexecutin sobre NPUs i models locals, aprofitant el nou maquinari que comencen a incorporar els xips d'AMD, Intel o Qualcomm. Això permetria gaudir d'una experiència de “IA sempre aquí” sense sacrificar privadesa ni dependre constantment del núvol.
En aquest context, algunes empreses especialitzades, com Q2BSTUDIO, proposen acompanyar organitzacions que vulguin aprofitar aquesta idea de “IA nativa” al seu propi ecosistema: des del disseny de models locals i agents intel·ligents fins al desplegament en producció en núvols com AWS o Azure, sempre amb focus en ciberseguretat, compliment i escalabilitat.
Intel·ligència visual i biometria a l'escriptori Linux del futur
Un dels pilars d'aquesta distro centrada a IA seria la intel·ligència visual, començant per una cosa tan quotidiana com la càmera web. El sistema podria aplicar automàticament embelliment facial lleuger, correccions de llum, desenfocament o substitució de fons i reescalat de vídeo en temps real, de manera molt similar al que ja veiem en algunes apps, però integrat a nivell de sistema.
La clau és que aquestes tasques d'imatge es processin de manera local, recolzades a la NPU de l'equip, per no exposar dades sensibles al núvol. Un petit indicador del sistema pot mostrar en tot moment quin accelerador (NPU, GPU o CPU) està actuant, cosa que aporta transparència i control per a l'usuari més tècnic.
Al terreny de la seguretat, la combinació de càmera i sensors permetria mètodes biomètrics complets: empremta dactilar com a opció principal de desbloqueig i reconeixement facial com a segona alternativa quan es disposa de webcam. Tot això sense tancar-se en solucions propietàries i recolzant estàndards moderns com FIDO2 i WebAuthn amb passkeys.
La idea és que lusuari pugui triar el seu mètode biomètric preferit, sempre amb possibilitat de recórrer a contrasenyes en cas necessari. Així es barregen comoditat, privadesa i compatibilitat amb serveis web que ja entenen aquestes tecnologies sense lligar-se a l'ecosistema tancat d'un únic proveïdor.
Àudio, dictat i experiència de comunicació millorada
L'altre gran bloc d'una distro Linux amb IA integrada seria la intel·ligència aplicada a l'àudio. Això inclou cancel·lació de soroll en temps real per a reunions, trucades i enregistraments, però també transcripció local veu‑a‑text per prendre notes, redactar correus o utilitzar el dictat com a substitut parcial del teclat.
En treballar amb models locals, el sistema pot anar aprenent del patró de parla de l'usuari, incorporar el seu argot, termes tècnics habituals i noms propis freqüents, millorant la precisió sense necessitat d'enviar clips d'àudio a tercers. A això s'hi afegeix la possibilitat de traduir en local, generant subtítols en temps real en l'idioma triat.
Imagina una trucada de vídeo en què el sistema s'encarrega de produir subtítols i traduccions en segon pla, canviant d'idioma sobre la marxa sense fricció. Tot el flux es mantindria al dispositiu, cosa que resulta especialment atractiva per a entorns sensibles: despatxos d'advocats, investigadors, periodistes, institucions públiques, etc.
A més, a nivell d'altaveus, la IA podria encarregar-se d'un processament global de l'àudio del sistema, augmentant la intel·ligibilitat de les veus, equilibrant volums entre aplicacions i generant sensació de més potència sense disparar el consum energètic. L'objectiu: que trucades, conferències i contingut multimèdia sonin sempre “clars” encara que el maquinari no sigui de gamma alta.
Un agent d'IA global i un terminal realment intel·ligent
Al cor d'aquesta proposta hi ha la idea d'un agent d'IA accessible en tot moment des de la barra superior o mitjançant una drecera de teclat. Aquest agent podria “llegir” el contingut de la pantalla de manera local, entendre el context i executar accions: obrir aplicacions, crear fitxers, buscar informació, diagnosticar errors o proposar solucions.
La condició indispensable és que el processament de visió es faci al mateix equip, de manera que captures o representacions de la pantalla no surtin del dispositiu. D'aquesta manera, l'usuari pot demanar coses de l'estil “explica'm aquest error”, “resumeix-me aquest document” o “automatitza'm aquests passos” amb certa tranquil·litat pel que fa a privadesa.
En paral·lel, el terminal Linux es convertiria en una peça molt més amigable. En lloc de ser només una interfície crua de text, comptaria amb autocompletat contextual, explicacions en línia de missatges derror i documentació emergent en passar el cursor sobre una ordre. Preguntes com “com instal·lo aquest paquet en aquesta distro” tornarien ordres llestos per copiar i una guia pas a pas.
La veu també jugaria un paper important: podries dir al sistema “crea un usuari amb permisos limitats per a proves” i rebre la seqüència d'ordres corresponent o, fins i tot, que el mateix sistema l'executi després de la confirmació. La shell seguiria sent la mateixaperò supervitaminada amb una capa d'intel·ligència orientada a la productivitat i l'aprenentatge continu.
Gestió d'energia, brillantor i maquinari amb ajuda de models locals
Una altra àrea on la IA pot aportar força a Linux és la optimització del consum energètic i del maquinari gràfic. Un exemple és lajustament dinàmic de brillantor de pantalla en funció de la llum ambient, utilitzant la càmera frontal com a sensor addicional quan no hi hagi fotòmetre dedicat.
A això se suma el suport nadiu per freqüència de refresc variable, decisions més intel·ligents sobre quan prioritzar la NPU davant de la GPU o la CPU per a tasques d'IA i aprenentatge del patró d'ús energètic per aplicació. Amb aquesta informació, el sistema podria identificar processos ajornables i suggerir modes destalvi que tinguin impacte real en lautonomia.
La gràcia d‟aquest plantejament és que el sistema no es limita a mostrar un percentatge genèric de “bateria estalviada”, sinó que pot ensenyar escenaris concrets de millora: què hauria passat si un cert procés s'hagués posposat, quant s'ha estalviat reutilitzant la NPU en lloc de la GPU, etc. Així, l'usuari entén per què val la pena acceptar certes recomanacions.
En termes d'arquitectura, la peça clau és una capa d'orquestració de NPU que decideixi, en temps real, on executar cada tasca: si hi ha NPU disponible, es fa servir; si no, es deriva a GPU o CPU segons convingui. Aquesta capa hauria de funcionar de forma transparent per a lusuari normal, però amb informació clara per a qui vulgui monitoritzar què sestà accelerant i com.
Experiència d'usuari, llapis digital i ecosistema connectat
Més enllà de la IA “visible”, una distro pensada per a l'usuari final n'hauria d'oferir una experiència polida d'ecosistema: selector global d'emoji integrat, VPN a nivell de sistema amb enrutat per aplicació, gestor de contrasenyes open source preinstal·lat i accessible des de la pantalla inicial de sessió, i un navegador nadiu optimitzat, amb opció per desactivar funcions d'IA i sincronitzat amb la resta del sistema.
A això se sumarien funcions similars a KDE Connect per a integrar a fons el mòbil Android: transferència senzilla de fitxers, mirall de notificacions, control multimèdia compartit i altres petites comoditats que fan que el conjunt se senti “unificat” sense necessitat de recórrer a solucions propietàries.
En dispositius tàctils i convertibles, el llapis digital seria un protagonista de primera. La IA pot encarregar-se del reconeixement d'escriptura, convertir esbossos en diagrames i tasques, redreçar formes, etiquetar notes automàticament i permetre cerques dins de manuscrits. A més, es poden definir gestos específics del llapis vinculats a accions del sistema o combinar-los amb ordres de veu.
Tot això se sustenta en models petit-mitjans desplegats localment: reconeixement de text manuscrit, classificació de notes, extracció d'entitats rellevants o recomanacions d'estructura. De nou, el focus és que el dispositiu sigui capaç de fer-ho en mode offline, mantenint la privadesa d'apunts, documents o idees sense pujar-los sencers al núvol.
Eines pràctiques d'IA per a usuaris de Linux: Ollama i Perplexity
Més enllà d'aquestes visions de futur, avui ja n'hi ha eines concretes per a Linux que estan canviant la manera com molts usuaris investiguen, escriuen o estudien. Dues de les més interessants, pel seu enfocament i per oferir versions gratuïtes, són Ollama i Perplexity.
Molta gent va començar sent molt crítica amb la IA generativa perquè hi veia un drecera creativa que devaluava el treball humà en escriptura, il·lustració o disseny. No obstant això, quan es canvia el focus de “crear contingut” a “fer millor investigació”, la percepció sol transformar-se: allò que abans era vist com una amenaça passa a considerar-se una mena de lupa o motor de cerca turbo.
Ollama és una plataforma de IA de codi obert que permet executar models de llenguatge directament a la teva màquina, sense dependre d'un proveïdor al núvol. Això significa que les vostres consultes no surten del vostre equip, una cosa clau si us preocupa la privadesa o treballeu amb dades sensibles, esborranys de llibres, informes interns o documentació de clients.
Una de les funcions més interessants d'Ollama és la seva biblioteca d'indicacions ràpides. Podeu definir prompts personalitzats i reutilitzar-los sense haver d'escriure'ls de zero cada vegada. Per exemple: “Aprofundeix en el tema següent i explora qualsevol subtema rellevant: ”. Això agilitza molt la feina i garanteix un estil de recerca consistent.
A més, Ollama permet crear el que s'anomenen “piles de coneixement”: conjunts de documents locals que el model utilitza com a context. Si ets escriptor, investigador o tècnic i ja tens diversos articles o informes sobre una àrea, pots agrupar-los i fer preguntes específiques perquè el model respongui tenint en compte només el teu propi material. És com construir un sistema de cerca intel·ligent privat sobre la teva biblioteca personal.
Per fer-ho més còmode, hi ha interfícies com Msty, que actuen com a frontend sobre Ollama i faciliten la gestió de prompts, models i piles de coneixement. A la pràctica, acabes usant la IA gairebé com faries servir un quadern digital interactiu.
L'altra eina destacable és Perplexitat, que funciona com un híbrid entre cercador i assistent de recerca. Es pot fer servir des del navegador, però també compta amb aplicació d'escriptori per a Linux, que ofereix un entorn més net i directe.
Perplexity disposa de dues maneres principals: Cerca, per obtenir respostes ràpides amb fonts citades, i investigar, que llança una anàlisi profunda que pot trigar fins a 30 minuts i produeix un informe força detallat, ideal quan abordes temes complexos o poc documentats. Durant el procés, mostra quines tasques executeu i quines fonts consulteu, de manera que entens millor com construeix les seves conclusions.
Un altre punt fort són els Espais, que actuen com a contenidors de temes. Hi pots agrupar totes les teves consultes sobre un llibre, un projecte, una tesi o un client determinat, sense barrejar resultats. Això facilita moltíssim tornar a un fil de recerca setmanes després sense perdre el context.
La versió gratuïta de Perplexity és generosa, tot i que limita el nombre de consultes avançades al dia. Per a qui necessita treballar intensivament, hi ha un pla professional de pagament amb més de 300 cerques “Pro” diàries, però molts usuaris de Linux s'apanyen perfectament amb l'opció gratuïta per reduir soroll davant dels cercadors tradicionals, dominats per anuncis i contingut poc útil.
Red Hat Enterprise Linux Lightspeed: IA assistint a l'administrador
En l'àmbit empresarial, una de les propostes més tangibles de IA integrada en una distribució Linux ca Red Hat Enterprise Linux (RHEL) Lightspeed. Red Hat ha aprofitat dècades d'experiència amb RHEL per crear eines que usen IA amb un objectiu molt concret: ajudar tant administradors novells com veterans a dissenyar, desplegar i gestionar sistemes de manera més àgil.
RHEL Lightspeed es compon de dues grans peces, incloses sense cost addicional per als que ja tenen subscripció: un assistent de línia d'ordres i un sistema de recomanacions de paquets integrat al dissenyador d'imatges de Red Hat Insights. Tots dos busquen reduir temps de diagnòstic i configuració sense obligar a aprendre una interfície completament nova.
L'assistent de línia d'ordres està disponible a RHEL 9.6 i 10 i es recolza en un servei allotjat de Red Hat. En instal·lar el paquet command-line-assistant, l'usuari pot llançar l'ordre c (o cla si hi ha conflicte amb àlies existents) i plantejar preguntes en llenguatge natural relacionades amb el sistema: des de problemes d'arrencada lent fins a dubtes de configuració.
La gràcia de lassumpte és que lassistent pot recolzar-se en la documentació oficial de RHEL ia la Red Hat Knowledgebase per generar les seves respostes, apropant als administradors el coneixement acumulat de la companyia. Per exemple, si tens una arrencada excessivament lent, pots escriure alguna cosa com c "Ayúdame a averiguar por qué este sistema tarda en arrancar" i obtindràs una recomanació basada en eines com systemd-analyze time, systemd-analyze blame o systemd-analyze critical-chain, juntament amb suggeriments per revisar serveis problemàtics.
A més de preguntes directes, es poden adjuntar fitxers de log amb -a perquè l'assistent els analitzi o canalitzar la sortida d'una altra ordre a través de c. Alguna cosa com free -m | c "¿Cuánta memoria libre tengo en este sistema?" permet transformar dades crues en explicacions llegibles. També hi ha un mode interactiu (c -i) i un històric de converses accessible amb c history -a, tot documentat a la pàgina de manual de c.
És important tenir en compte que aquest assistent no executa models localment: envia les sol·licituds a un servei remot inclòs dins del valor de la subscripció a RHEL. A canvi, els requisits de maquinari són mínims i les organitzacions reben una experiència integrada i suportada per Red Hat, una cosa molt valorada en entorns crítics.
La segona peça de Lightspeed s'integra al dissenyador d'imatges d'Insights. Aquesta eina permet crear imatges de RHEL per a diferents plataformes, ajustar particions, aplicar polítiques de seguretat OpenSCAP, etc. Quan l'usuari selecciona paquets per incloure en una imatge, Lightspeed analitza aquesta selecció i proposa paquets addicionals que probablement siguin rellevants.
Per exemple, si s'afegeix el paquet adcli, el sistema pot suggerir automàticament altres relacionats, apareixent en una secció de recomanacions al peu de la pantalla. L'administrador revisa la llista i decideix què incorporar, recolzant-se a la IA per no oblidar-se de dependències o utilitats que solen anar de la mà.
En conjunt, RHEL Lightspeed pretén que la IA actuï com un copilot tècnic: ajuda a diagnosticar, guia l'usuari a la documentació correcta, suggereix paquets i accelera la resolució de problemes, sense substituir el criteri de l'administrador ni convertir el sistema en una “caixa negra” incontrolable.
La Fundació Linux i Acumos: una plataforma oberta per a IA reutilitzable
A nivell d'ecosistema, la Fundació Linux fa anys que treballa per impulsar projectes de codi obert en camps clau, i la intel·ligència artificial és un dels fronts més estratègics. Un dels seus esforços més cridaners en aquest àmbit és la plataforma Acumos, concebuda com un estàndard industrial per fer que les aplicacions d'IA siguin reutilitzables i fàcils de consumir.
La motivació d'Acumos parteix d'una realitat clara: moltes solucions actuals d'IA estan pensades per a científics de dades, requereixen un alt grau despecialització i resulten poc accessibles per a desenvolupadors de programari “a peu”. La plataforma vol posar el focus a l'usuari final, facilitant la creació d'aplicacions i microserveis basats en models existents.
Entre els impulsors originals hi ha empreses com AT&T i Tech Mahindra, però la idea sempre va ser que altres actors se sumessin al projecte, definint un model de governança propi. La promesa d'Acumos és permetre a desenvolupadors editar, integrar, compondre, empaquetar, entrenar i desplegar aplicacions d'IA i aprenentatge automàtic sobre una base comuna i oberta.
En paraules de Jim Zemlin, director executiu de la Fundació Linux, una plataforma d'IA oberta i connectada fomenta la col·laboració i permet que desenvolupadors i empreses defineixin junts el futur de la IA. Com que és open source, hauria de ser accessible a qualsevol interessat en intel·ligència artificial i personalitzable per a necessitats molt específiques.
A la pràctica, això significa que organitzacions que treballen amb vehicles autònoms, drones, curació i anàlisi de contingut i altres àrees molt diverses puguin compartir i reutilitzar components d'IA sense reinventar la roda. Mazin Gilbert, vicepresident de tecnologia avançada a AT&T Labs, ho va resumir assenyalant que Acumos accelerarà la innovació i el desplegament d‟aplicacions d‟IA, posant-les a l‟abast d‟un públic molt més ampli.
Tot i que el projecte ha tingut els seus ritmes i ajustaments, representa bé la direcció en què es mou l'ecosistema Linux: construir infraestructures obertes que permetin que la IA no sigui patrimoni exclusiu de gegants tancats, sinó una eina que qualsevol pugui estudiar, modificar i desplegar segons les regles.
Prenent el conjunt de totes aquestes peces —l'expansió de Linux al núvol, els models oberts o semioberts, les eines locals com Ollama, assistents com Perplexity, solucions empresarials tipus RHEL Lightspeed i plataformes com Acumos, a més de les visions de distros amb IA nativa orientades a l'usuari final— queda força clar que el futur de no passa per copiar sense més ni més el que fan Windows o macOS, sinó per aprofitar la flexibilitat, la transparència i la comunitat del codi obert per dissenyar experiències intel·ligents que respectin la privadesa, maximitzin la reutilització i ofereixin un control real a l'usuari, des de l'administrador de sistemes més veterà fins a qui només vol que el seu portàtil “sigui llest” sense convertir-se en una bústia de dades per a tercers.