La idea de tenir un clon virtual que treballi per nosaltres sona gairebé amb ciència ficció, però ja està trucant a la porta de moltes empreses i professions. Els anomenats bessons digitals i humans sintètics prometen multiplicar la productivitat, estendre el nostre abast i fins i tot mantenir-nos “actius” després de morir, almenys en sentit digital.
Tot i això, darrere d'aquest entusiasme hi ha un camp minat de dilemes: identitat, privadesa, biaixos, propietat de les dades i llegat. No parlem només de models que simulen màquines o edificis; parlem de còpies molt convincents de persones que escriuen, parlen, negocien i prenen decisions en nom nostre, dins d'un ecosistema hiperconnectat amb milers de milions de dispositius.
Què és un bessó digital i per què ara és a tot arreu
En termes senzills, un bessó digital és una rèplica virtual d'un objecte, procés, sistema o fins i tot una persona, sincronitzada en temps (gairebé) real amb la seva versió física mitjançant dades. Aquesta connexió s'alimenta de sensors, programari, internet de les coses (IoT) i intel·ligència artificial, cosa que permet simular comportaments, predir errors i optimitzar decisions sense tocar el món físic.
Aquesta tecnologia es va començar a consolidar fa dècades. Després de la missió Apol·lo XIII, la NASA va començar a simular naus i equips sense connexió física directa per assajar escenaris, anticipar problemes i augmentar la seguretat dels astronautes. Aquells models de simulació han evolucionat fins al concepte actual de bessó digital, que s'ha estès des de la indústria aeroespacial fins a sectors com ara la construcció, la salut, la mobilitat o l'energia.
Avui, gràcies a l'auge de l'IoT i la domòtica (informació sobre domòtica), els bessons digitals funcionen com un laboratori virtual on provar hipòtesis abans d'executar canvis reals. Es poden replicar productes, infraestructures, cadenes de subministrament o ciutats senceres en un ordinador, combinant variables, dades i informació per veure què passaria si….
Consultores com Gartner estimen que prop de la meitat de les empreses industrials fan servir bessons digitals per millorar l'eficiència i reduir temps d'inactivitat, mentre que estudis de firmes com Deloitte o Vector IT Group i d'altres exemples de tecnologia digital apunten a un creixement exponencial del seu ús, especialment en electrònica, construcció i transport.
Aquest desplegament massiu no seria possible sense l'anomenada hiperconnectivitat: es calcula que podríem passar d'uns 8.700 milions de dispositius connectats actualment a més de 25.000 milions en pocs anys. Cadascun d'aquests dispositius es converteix en una font de dades que alimenta models digitals cada cop més precisos i detallats.
Aquest desplegament massiu no seria possible sense l'anomenada hiperconnectivitat: es calcula que podríem passar d'uns 8.700 milions de dispositius connectats actualment a més de 25.000 milions en pocs anys. Cadascun d'aquests dispositius es converteix en una font de dades que alimenta models digitals cada cop més precisos i detallats.
De les màquines a les persones: bessons digitals humans i clons d'IA
El salt qualitatiu arriba quan deixem de modelar màquines i comencem a replicar les persones amb tot luxe de detalls: la veu, la cara, els gestos, l'estil d'escriptura, les decisions passades i els hàbits de treball. És aquí on entren en joc els humans sintètics i els clons de la IA.
Startups com Viven o eines com Synthesia ja ofereixen la possibilitat de crear avatars hiperrealistes de directius, docents o creadors de contingut. A partir de vídeos, àudios, textos i altres dades personals, generen un “jo digital” que pot gravar vídeos, contestar correus, atendre reunions o fer xerrades, sense que la persona original hi sigui present.
Imagina un professor que ha escrit i publicat durant dècades. Amb suficients textos, enregistraments i material històric, és perfectament factible entrenar un model de llenguatge que imiteu el to, el vocabulari i la forma d'argumentar de manera sorprenentment convincent. Aquest professor algorítmic podria impartir classes, contestar preguntes d'estudiants i seguir actiu encara que la persona real deixés de fer-ho.
En l'àmbit corporatiu, es parla d'escalar el capital humà o embotellar l'experiència: crear còpies virtuals de els millors comercials, agents datenció al client o directius per multiplicar-ne la presència sense límit de temps ni espai. En teoria, sona a son productiu: el teu clon atén trucades, envia informes i participa en videoconferències mentre tu et dediques a pensar en l'estratègia… o desconnectar.
Però aquest somni té un costat fosc: com més convincent és la rèplica, més difuses es tornen les fronteres entre la persona i l'algorisme. Qui està parlant realment? Qui respon del que es diu? Què vol dir ser productiu si la teva versió digital fa gran part del treball?
Bessons digitals en sectors clau: construcció, indústria, salut i energia
Més enllà del cas dels clons personals, els bessons digitals ja estan transformant sectors sencers amb una barreja d'avantatges clars i riscos ètics gens trivials. Un dels camps on més s'estan desplegant és la construcció intel·ligent i la gestió d'infraestructures.
En aquest àmbit, es desenvolupen representacions virtuals dedificis, ponts o barris complets, connectades en temps real amb sensors estructurals i doperació. Aquests models permeten simular comportaments, optimitzar processos constructius i anticipar errors amb una precisió inèdita. Des del punt de vista tècnic i econòmic, experts com Rolando Chacón assenyalen que és una solució ja madura i accessible.
El bessó digital d'una infraestructura ofereix la possibilitat de veure moltes més variables de les que percebem a simple vista. Es pot analitzar lefecte de càrregues extremes, patrons de desgast, impacte del clima o usos no previstos, reduint riscos i costos. A Fórmula 1, per exemple, és rutinari replicar peces i el disseny complet del monoplaça en un entorn virtual per predir el comportament abans ni tan sols de construir-lo físicament.
En l'àmbit sanitari, la idea va encara més lluny: crear bessons digitals de persones per anticipar malalties, personalitzar tractaments i predir la reacció del cos davant determinats medicaments o intervencions. La capacitat tècnica per simular òrgans, sistemes circulatoris o respostes immunitàries no deixa de créixer, gràcies a avenços com el edge computing per a una IA amb menys latència, encara que estiguem davant d'un terreny extremadament sensible des de la perspectiva de privadesa i ètica.
Fins i tot al sector energètic s'utilitzen bessons digitals amb fins de seguretat. Algunes centrals elèctriques compten amb rèpliques virtuals dissenyades com a cimbells per desviar i analitzar ciberatacs: els atacants creuen que han compromès la instal·lació real, quan en realitat només han arribat al seu bessó digital.
Internet de les coses, dades massives i la gran pregunta: a qui pertanyen?
Tot aquest ecosistema només funciona perquè vivim en un entorn de hiperconnectivitat i flux constant de dades. Cada sensor, màquina, wearable o aplicació envia informació que va alimentant els models digitals. Com més dades s'acumulen, més precís es torna el bessó.
Tot i això, aquesta mateixa abundància de dades obre un debat complex: de qui són realment aquestes dades i com s'han de tractar? Alguns experts sostenen que les dades generades per grans infraestructures o sistemes urbans tenen caràcter d'“actiu social”, mentre permeten millorar serveis públics i planificació urbana.
Però quan les dades es refereixen a persones concretes —la salut, el comportament laboral, els hàbits de consum o la veu i la imatge— la pregunta es torna més delicada. Convertir la identitat en infraestructura de dades implica assumir que parts del que som es poden llicenciar, monetitzar o reutilitzar a voluntat de tercers.
Aquí és on entren conceptes com consentiment, transparència i control. Si una empresa entrena un bessó digital amb les teves interaccions passades, durant quant de temps pot seguir usant-ho? Què passa quan abandones la companyia, et jubiles o mors? Poden continuar explotant el teu “doble digital” com si res no hagués canviat?
L'acadèmica Gabriela Arriagada, des del camp de l'ètica aplicada i l'enginyeria, insisteix que l'ètica de la intel·ligència artificial no es pot limitar a la intenció del programador. Cal contemplar tot l'ecosistema d'implementació: qui dissenya el sistema, qui el fa servir, qui es veu afectat i com es comparteixen responsabilitats quan surt malament alguna cosa.
Identitat, criteri i el risc de fossilitzar les persones
Més enllà de la privadesa, l'auge dels bessons digitals humans toca de ple la noció d'identitat i de valor professional. Replicar el resultat d'una persona –els seus textos, les seves decisions, la seva “forma de fer les coses”– no equival a replicar-ne el criteri ni el propòsit. És com fer una foto fixa de qui eres en un moment concret.
Un clon d'IA entrenat amb el teu contingut el 2025 podrà imitar força bé el teu estil d'aquell any, però no la teva evolució posterior. No incorporarà aprenentatges futurs, canvis d'opinió, noves lectures o cops de realitat que facin matisar les teves postures. És, en termes metafòrics, un fòssil actualitzat cada dia, però fòssil al capdavall.
Això planteja un dilema particular per a professions creatives o de lideratge intel·lectual. Moltes persones escriuen o ensenyen no només per produir resultats, sinó per pensar, refinar les idees i mantenir viu el propi criteri. Si deleguen completament l'escriptura, la docència o la presa de decisions en un bessó digital, perden el mateix procés que els fa créixer.
A més, la fascinació per “escalar-se un mateix” pot portar a reduir la identitat professional a una cadena de muntatge: clonem el comportament passat per multiplicar-lo, com si la personalitat fos un producte acabat i no un procés en constant revisió.
Hi ha, per tant, un risc d'alienació: el teu bessó digital continua parlant en nom teu, però tu ja no passes per l'esforç de pensar, contrastar i equivocar-te. A la llarga, la teva pròpia veu corre el risc de fer-se indistingible de la de la màquina entrenada amb les restes digitals.
Presència, lideratge i la temptació d'enviar un maniquí a les reunions
Al món executiu, la possibilitat de tenir un clon digital que atengui reunions, respongui correus i enregistri missatges és, en aparença, irresistible. Hi ha directius que se senten gairebé afalagats en veure que són “tan importants” que val la pena crear un doble d'IA per multiplicar-ne la presència.
Tot i això, molts d'aquests mateixos líders reconeixen que no confien del tot en els seus propis clons. Funcionen raonablement bé per a interaccions repetitives, missatges estàndard o respostes molt guionitzades, però fallen en aspectes clau del lideratge: empatia, puntualitat al matís, sensibilitat al context o gestió de conflictes.
Delegar reunions importants en un avatar digital es pot convertir en una cosa semblant a enviar un maniquí a seure a taula: és formalment present, mou la boca, fins i tot respon amb certa lògica, però la connexió emocional i la responsabilitat personal es dilueixen. En sortir de la reunió, tu no saps de debò què s'ha dit, com s'ha dit ni com ho han rebut els altres.
Una cosa semblant passa amb la gestió del correu electrònic o de la missatgeria corporativa. Si és el teu bessó digital el que contesta la majoria de missatges, perds a poc a poc el mapa mental de les teves pròpies converses. Deixes de saber què has promès, a qui, en quin to i amb quins matisos, cosa que a mitjà termini pot erosionar la teva credibilitat.
La paradoxa és que, a molts càrrecs, el valor que aportes no és només el contingut literal del que dius, sinó la teva presència, la teva escolta i la teva capacitat de reaccionar davant imprevistos. Reemplaçar aquests moments per un avatar pot abaratir una cosa que, precisament, justificava que hi fossis.
Immortalitat corporativa i llegat: què passa quan el bessó sobreviu a la persona?
Un dels escenaris més inquietants és el de la supervivència dels bessons digitals més enllà de la vida dels seus referents humans. Si una empresa considera les dades dels seus empleats com un actiu, és fàcil imaginar que també vulgui tractar els seus clons digitals de la mateixa manera.
Visualitzem, per exemple, que una gran corporació tecnològica decideix continuar utilitzant la versió d'IA d'un fundador carismàtic anys després de la seva mort, presentant-la com una mena de “president honorífic digital”. Pot semblar un homenatge emotiu, però fregaria una cosa propera a la nigromància corporativa: ressuscitar restes intel·lectuals per sostenir una marca.
Universitats, mitjans de comunicació o grans consultores podrien sentir-se temptades de vendre accés a professors i líders “virtualitzats” de renom, convertits en productes llicències de formació o assessoria premium. La frontera entre respectar un llegat i explotar una identitat esdevé extremadament borrosa.
La qüestió clau és qui controla el clon i qui es beneficia econòmicament de la seva explotació. Els hereus de la persona, la institució per a la qual treballava o la plataforma tecnològica que va entrenar el model? Sense marcs normatius clars i acords ètics explícits, el risc d'abús és evident.
Per això molts experts en ètica tecnològica insisteixen a tractar les dades personals, i per extensió els bessons digitals, com un llegat i no com una simple propietat despersonalitzada. Ningú no hauria de convertir-se en un “actiu digital perpetu” sense el seu consentiment informat, condicions d'ús clares i possibilitat real de revocar aquest permís.
Privadesa, seguretat i biaixos als bessons digitals
Des de la perspectiva de protecció de dades, els bessons digitals plantegen reptes especialment seriosos quan s'apliquen a contextos sensibles com la salut, l'educació o el treball. No parlem només de fitxers estàtics, sinó de models que integren informació de múltiples fonts i generen prediccions sobre comportaments futurs.
En matèria de privadesa, sorgeixen riscos com la reidentificació de persones a partir de dades suposadament anonimitzades, l'ús secundari d'informació per a fins no previstos o la construcció de perfils extremadament detallats que es puguin fer servir per discriminar, negar serveis o manipular decisions.
A això s'hi afegeix el problema dels biaixos algorítmics. Si les dades històriques amb què s'entrenen els bessons digitals contenen discriminacions ocultes o decisions injustes, és probable que el model reprodueixi i amplifiqui aquests patrons. En àmbits com la selecció de personal, la concessió de crèdits o la planificació sanitària, això es pot traduir en desigualtats sistemàtiques.
Mitigar aquests biaixos exigeix una combinació de disseny responsable, auditories periòdiques i participació de perfils diversos a l'avaluació de resultats. No n'hi ha prou de dir “l'algorisme ho ha decidit”; cal explicar per què, amb quines dades i amb quin marge d'error.
Pel que fa a seguretat, els bessons digitals també són un objectiu temptador per a ciberatacs. Un atacant que aconsegueixi manipular el bessó d'una planta industrial, una xarxa elèctrica o un sistema de transport podria induir decisions perilloses al món físic sense tocar directament les instal·lacions, simplement enganyant el model i els sistemes que hi confien.
Regulació, marcs ètics i responsabilitat compartida
Les normatives actuals de protecció de dades, com ara el Reglament General de Protecció de Dades a Europa, ofereixen certes eines per abordar part d'aquests problemes, especialment pel que fa a consentiment, transparència i drets d'accés, rectificació i supressió. Però no estan pensades específicament per al fenomen dels bessons digitals humans.
Els bessons digitals barregen elements de programari, identitat, llegat, seguretat i propietat intel·lectual, cosa que fa evident la necessitat de marcs regulatoris més específics. Aquests haurien de contemplar, entre d'altres punts, el dret a no ser clonat digitalment sense permís, la gestió post mortem dels models personals i els límits a l'explotació comercial d'avatars.
A més de la regulació formal, és clau que les organitzacions desenvolupin polítiques internes de governança de dades i ètica de la IA. Això inclou comitès multidisciplinaris, protocols d'avaluació d'impacte, criteris d'equitat i mecanismes perquè els empleats, els clients o els ciutadans puguin plantejar objeccions raonades a l'ús de la seva informació en bessons digitals.
La responsabilitat, per tant, no recau només en els programadors o els departaments legals, sinó en tot l'ecosistema: directius, dissenyadors de producte, equips de dades, experts en ètica i usuaris finals. La manera com una organització faci servir els bessons digitals dirà molt de la seva cultura i del seu respecte real per les persones que afecta.
En aquest sentit, s'insisteix a passar d'una visió purament instrumental de la tecnologia —“què podem fer?”— a una altra de més madura que es pregunti també “què hauríem de fer i amb quins límits?”. Els bessons digitals són massa potents per deixar-los sense frens ètics.
Com fer servir la IA com a complement i no com a substitut de les persones
Una manera més assenyada d'abordar aquesta revolució consisteix a considerar la intel·ligència artificial i els bessons digitals com a eines de suport i escalat, no com a còpies que substitueixen la persona. És a dir, prioritzar el complement davant de la imitació literal.
Molts professionals utilitzen ja sistemes de IA com companys de pensament: ajuden a resumir textos, proposar estructures, cercar referències o detectar errors. En aquest enfocament, la màquina aporta velocitat i capacitat de processament, mentre que les decisions de fons –què dir, com dir-ho, a qui i amb quin propòsit– segueixen sent humanes.
De forma anàloga, en una empresa es pot desplegar bessons digitals per simular escenaris, optimitzar processos i oferir recomanacions, mantenint sempre un humà al comandament en els punts crítics de creativitat, criteri i responsabilitat. No es tracta de clonar l'expert, sinó de donar millors instruments d'anàlisi.
Això implica establir límits clars: per exemple, decidir que no es delegaran en clons digitals certes funcions de lideratge, avaluació de persones o presa de decisions sensibles. En el seu lloc, es faran servir models per oferir diagnòstics, alertes primerenques o propostes d'acció que després un responsable humà validarà o descartarà.
Al final, els que adoptin la IA amb aquest tipus de prudència activa podran ampliar-ne l'impacte sense diluir-ne l'essència. Els qui la facin servir per externalitzar completament el pensament i la presència corren el risc de tornar-se intercanviables amb qualsevol altre model entrenat amb dades suficients.
L'expansió dels bessons digitals, des de la indústria fins als clons personals, ens col·loca davant d'una cruïlla en què es barregen productivitat, identitat, privadesa, poder corporatiu i llegat; aprofitar el seu enorme potencial exigeix tractar-los no només com una proesa tècnica, sinó com a part d'un pacte social en què es respectin el criteri humà, el consentiment i la justícia en l'ús de les dades, perquè en última instància el que està en joc no és només l'eficiència dels sistemes, sinó el tipus de relacions i de persones que volem continuar sent en un món cada cop més digitalitzat.
