{"id":3551,"date":"2025-04-03T08:52:28","date_gmt":"2025-04-03T08:52:28","guid":{"rendered":"http:\/\/meumon.synology.me\/museu\/?p=3551"},"modified":"2026-03-16T10:25:53","modified_gmt":"2026-03-16T10:25:53","slug":"ai","status":"publish","type":"post","link":"http:\/\/meumon.synology.me\/museu\/ai\/","title":{"rendered":"AI"},"content":{"rendered":"<p>Cervell: <a href=\"http:\/\/meumon.synology.me\/museu\/cervell-xarxa-neuronal\/#ccognitivesxarxesneuronals\">Ci\u00e8ncies cognitives i Xarxes neuronals<\/a>.\u00a0 Intel\u00b7lig\u00e8ncia, evoluci\u00f3 \u00a0<a href=\"http:\/\/meumon.synology.me\/museu\/intel%c2%b7ligencia\/#ai\">AI<\/a><\/p>\n<p><a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#aisimbolica\">AI simb\u00f2lica<\/a>\u00a0 \u00a0 \u00a0 <a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#xarxesneuronals\">Xarxes neuronals<\/a>\u00a0 i <a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#connexionisme\">Connexionisme<\/a>\u00a0 \u00a0<a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#deeplearning\">Aprenentatge autom\u00e0tic (Deep learning)<\/a><br \/>\n<strong>AI generativa<\/strong>: <a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#evolucio\">Evoluci\u00f3<\/a>\u00a0 \u00a0 <a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#eines\">Eines i desenvolupament<\/a>\u00a0 \u00a0<a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#llm\">LLM models de llenguatge<\/a>\u00a0 \u00a0 <a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#media\">Media<\/a>\u00a0 \u00a0 <a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#xatbots\">Xatbots<\/a>\u00a0 \u00a0(<a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#acompanyament\">acompanyament<\/a>)<br \/>\n<a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#impacte\">Impacte<\/a>\u00a0 \u00a0<a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#ficcio\">AI en la ficci\u00f3<\/a>\u00a0 \u00a0 \u00a0<a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#discussio\">Discussi\u00f3<\/a>\u00a0 \u00a0 \u00a0<a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#museu\">Un museu de la AI<\/a>\u00a0 \u00a0 \u00a0<a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#actualitzacions\">Actualitzacions<\/a><\/p>\n<hr \/>\n<h2 id=\"aisimbolica\">AI simb\u00f2lica<\/h2>\n<ul>\n<li>1950: <a href=\"https:\/\/en.wikipedia.org\/wiki\/Turing_test\">Test de Turing<\/a>: una m\u00e0quina es podria considerar intel\u00b7ligent si era capa\u00e7 d\u2019enganyar un \u00e9sser hum\u00e0 fent-li creure que estava parlant amb una altra persona en lloc d\u2019una m\u00e0quina. No valorava la comprensi\u00f3 real ni la consci\u00e8ncia, sin\u00f3 la capacitat de simular intel\u00b7lig\u00e8ncia.<\/li>\n<\/ul>\n<p><img decoding=\"async\" src=\"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/5\/55\/Turing_test_diagram.png\" width=\"300\" \/><\/p>\n<ul>\n<li><a href=\"https:\/\/en.wikipedia.org\/wiki\/ELIZA\">ELIZA<\/a>. El 1964 <a href=\"https:\/\/sites.google.com\/view\/elizagen-org\/original-eliza\">Joseph Weizenbaum<\/a> escriu un programa en MAD-SLIP for CTSS en un\u00a0 IBM 7094, que simula un terapeuta\u00a0 PCT (Person Center Therapy,) B\u00e0sicament pregunta l&#8217;usuari com se sent i retorna les seves frases. L&#8217;autor va quedar sorpr\u00e8s quan els usuaris, incloent la seva secret\u00e0ria, atribu\u00efen comprensi\u00f3 i sentiments al programa. Una <a href=\"https:\/\/anthay.github.io\/eliza.html\">simulaci\u00f3<\/a>.<br \/>\nEntrada d\u2019text (input): L\u2019usuari introdueix una frase en llenguatge natural. ELIZA llegeix el text i l\u2019analitza paraula per paraula.<br \/>\nBase de dades de patrons i respostes: es detecten patrons de paraules clau com &#8220;estic trist&#8221;, &#8220;la meva mare&#8221;. Hi ha preparades respostes associades com &#8220;Per qu\u00e8 creus que ets trist?&#8221;, &#8220;Digu\u00e9s m\u00e9s sobre la teva mare&#8221;. Tranformaci\u00f3 de &#8220;jo&#8221; a &#8220;tu&#8221; en la resposta: &#8220;Tinc problemes amb el meu germ\u00e0.&#8221; -&gt; &#8220;Com afecten els teus problemes amb el teu germ\u00e0?&#8221;, (patr\u00f3: &#8220;problemes amb [fam\u00edlia]&#8221; + transformaci\u00f3). &#8220;S\u00f3c solitari&#8221; \u2192 &#8220;Per qu\u00e8 ets solitari?&#8221;.<br \/>\nSi el text coincideix amb un patr\u00f3 coincideix amb un patr\u00f3 s&#8217;aplica la plantilla. Sin\u00f3 es recorre a frases com &#8220;Continua&#8221;, &#8220;Com et fa sentir aix\u00f2?&#8221;, &#8220;Explica\u2019m m\u00e9s sobre aix\u00f2&#8221;).<\/li>\n<\/ul>\n<ul>\n<li>1950-1980: Intel\u00b7lig\u00e8ncia Artificial Simb\u00f2lica (d\u00e8cades 1950-1980). Manipulaci\u00f3 de s\u00edmbols i aplicaci\u00f3 de regles l\u00f2giques per resoldre problemes complexos, com jugar als escacs o demostrar teoremes matem\u00e0tics.(llenguatges LISP i prolog). Aquest enfocament de la intel\u00b7lig\u00e8ncia com a conjunt de regles tenia dificultats per gestionar la incertesa, l\u2019aprenentatge i les tasques que requereixen sentit com\u00fa.<\/li>\n<li>Teoria de la informaci\u00f3 i cognitivisme de Newell, Shaw i Simon (1956). Model de processament de la informaci\u00f3 (inspirat en ordinadors). El seu logic theorist va provar 38 dels primers 56 teoremes dels Principia Mathematica de Russell. De manera general les persones solucionarien problemes segons un model (General problem Solver, GPS). Problem space: conjunt de tots els estats possibles en qu\u00e8 pot trobar-se el sistema (en particular l\u2019estat inicial i l\u2019estat objectiu) i els operadors que transformen un estat en un altre (per exemple, moure una pe\u00e7a sumar un n\u00famero, aplicar una regla l\u00f2gica [no deixa de ser un IF\u2026THEN])\u2026 Hi hauria estrat\u00e8gies heur\u00edstiques per trobar la soluci\u00f3 o almenys reduir el nombre d\u2019opcions a considerar. El GPS avalua la dist\u00e0ncia entre l\u2019estat inicial i l\u2019objectiu i compara quines operacions redueixen aquesta dist\u00e0ncia (means-ens analysis). Va suposar la inauguraci\u00f3 de la AI simb\u00f2lica. Es podia aplicar en problemes ben definits (com puzzles, proves de l\u00f2gica\u2026) per\u00f2 no funcionava b\u00e9 amb problemes oberts o amb incertesa. El model va ser millorat pel ACT-R de John Anderson que identifica els diferents m\u00f2duls que intervenen mem\u00f2ria declarativa, visual, motor, amb intervenci\u00f3 de porocessos subsimb\u00f2lics en la recuperaci\u00f3 de records. Als anys 80-90 la AI &gt;&gt;va comen\u00e7ar a explorar la via subsimb\u00f2lica.<\/li>\n<li>LISP. Desenvolupat el 1960 per John Maccarthy i implementat per Steve Russell en un IBM; 704. Processa llistes escrites com, (1 2 4 pepito (zona pepa)). Els operadors es posen al comen\u00e7ament de la llista (if condicio consequencia), o (+ 1 2 3 (* 4 5)). Per provar: <a href=\"https:\/\/tio.run\/#lisp\">TIO<\/a>. Exemple:<\/li>\n<\/ul>\n<p>(defun pare (x y)<br \/>\n(or (and (eq x &#8216;joan) (eq y &#8216;maria))<br \/>\n(and (eq x &#8216;joan) (eq y &#8216;pere))))<\/p>\n<p>(defun germans (x y)<br \/>\n(and (pare &#8216;joan x)<br \/>\n(pare &#8216;joan y)<br \/>\n(not (eq x y))))<br \/>\nCrida: (germans &#8216;maria &#8216;pere)<br \/>\nResposta: T (true)<\/p>\n<ul>\n<li><a href=\"http:\/\/www.iso.org\/standard\/21413.html\">PROLOG<\/a><br \/>\nDesenvolupat per Alain Colmerauer entre 1972 i 1995.\u00a0 \u00c9s un llenguatge de programaci\u00f3 declarativa i l\u00f2gica. Tu declares fets i regles, i el sistema respon a consultes (queries) mitjan\u00e7ant resoluci\u00f3 l\u00f2gica i unificaci\u00f3. El flux d\u2019execuci\u00f3 es basa en cercar solucions que satisfacin les condicions donades.\u00a0 Ha estat important en el m\u00f3n acad\u00e8mic per\u00f2 de poc impacte en la ind\u00fastria en general.<br \/>\nEls seus termes poden ser \u00e0toms &#8216;jordi&#8217;, &#8216;P(jordi)&#8217;, n\u00fameros, variables, llistes [Jordi, 2], strings &#8220;avui \u00e9s dilluns&#8221;. Amb els termes es poden definir fets human(Jordi), o regles, mortal(X):- hum\u00e0(X). Si preguntem qui \u00e9s mortal ?-mortal(X) ens dir\u00e0 X=Jordi. S?ha fet servir per intentar demostrar teoremes i per construir ontologies <a href=\"https:\/\/en.wikipedia.org\/wiki\/Web_Ontology_Language\">OWL<\/a> . (<a href=\"http:\/\/meumon.synology.me\/museu\/linguistica\/#semantica\">Sem\u00e0ntica<\/a>). Per provar: <a href=\"https:\/\/swish.swi-prolog.org\/\">SWISH<\/a>, <a href=\"https:\/\/lpn.swi-prolog.org\/lpnpage.php?pageid=top\">Learn prolog<\/a>.\u00a0<a href=\"https:\/\/tio.run\/#lisp\">TIO<\/a><\/li>\n<\/ul>\n<p>Exemple:<\/p>\n<p>pare(joan, maria).<br \/>\npare(joan, pere).<\/p>\n<p>germans(X, Y) :- pare(Z, X), pare(Z, Y), X \\= Y.<br \/>\nConsulta: ?- germans(maria, pere).<br \/>\nResposta: true.<\/p>\n<ul>\n<li><strong style=\"font-size: 1rem;\">Sistemes experts<\/strong><span style=\"font-size: 1rem;\">: Es va fer servir per construir sistemes experts com <\/span><a style=\"font-size: 1rem;\" href=\"https:\/\/en.wikipedia.org\/wiki\/Dendral\">DENDRAL<\/a><span style=\"font-size: 1rem;\"> per identificar mol\u00b7l\u00e8cules org\u00e0niques\u00a0 i <\/span><a style=\"font-size: 1rem;\" href=\"https:\/\/en.wikipedia.org\/wiki\/Mycin\">MYCIN<\/a><span style=\"font-size: 1rem;\"> per diagnosi m\u00e8dica. Feien servir backward chaining. A partir d&#8217;una base de dades de fets i les seves conseq\u00fc\u00e8ncies, parteix del resultat final per mirar de trobar quins fets han conduit cap a aquest resultat.\u00a0 Per exemple: IF febre AND leucocits alts \u2192 Infecci\u00f3 bacteriana amb probabilitat 0.7. <\/span>Avui la majoria fan servir LLMs per\u00f2 <a href=\"https:\/\/symptomate.com\/survey\/en\/d646b877-e2be-4d20-96cf-d19dfea7875d\">Symptomate<\/a> recull el plantejament de MYCIN original (<a href=\"https:\/\/github.com\/rdebath\/Mycin\">reprodu\u00efble<\/a> en rubi). (Ada per iphones). <a href=\"https:\/\/symptomchecker.isabelhealthcare.com\/\">Isabel<\/a>.<\/li>\n<\/ul>\n<p>Estrat\u00e8gia i jocs<br \/>\nESCACS: es construeix un arbre amb les jugades possibles i s&#8217;assigna un valor num\u00e8ric que avalua cada posici\u00f3, assignant un valor a les peces, fortalesa del rei, peces amena\u00e7ades, moviments disponibles (Stockfish).<br \/>\nEl 1997<a href=\"https:\/\/youtu.be\/NJarxpYyoFI\"> Deep Blue<\/a> de IBM derrota GAry Kasparov. Estava escrit en C (algorismes d&#8217;avaluaci\u00f3 de posicions, cerca d&#8217;arbres, etc.) i algunes rutines en assembler. Tenia 256 processadors dedicats i arribava a avaluar fins a 200M de posicions per segon.<br \/>\nAlphazero simplement emmagatzema milions de partides i en treu un valor estad\u00edstic. Es pot provar amb <a href=\"https:\/\/lichess.org\">Lichess<\/a>. <a href=\"https:\/\/lucaschess.pythonanywhere.com\/\">Lucas Chess<\/a>.<\/p>\n<hr \/>\n<h2 id=\"xarxesneuronals\">Xarxes neuronals<\/h2>\n<p><strong>Computadores de proc\u00e9s en paral\u00b7lel<\/strong><br \/>\nEn l\u2019<a href=\"https:\/\/en.wikipedia.org\/wiki\/Von_Neumann_architecture\">arquitectura de Von Neumann<\/a>, hi ha una unitat central que rep una instrucci\u00f3 per operar una dada entrant que s\u2019obt\u00e9 de la mem\u00f2ria i donar un resultat.\u00a0 Gauss (1795) i Legendre (1805), havien fet servir el\u00a0<a href=\"https:\/\/ca.wikipedia.org\/wiki\/M%C3%A8tode_dels_m%C3%ADnims_quadrats\">m\u00e8tode dels m\u00ednims quadrats<\/a>\u00a0per aproximar un conjunt de punts a una funci\u00f3 (un polinomi, per exemple), i imposant que el quadrat de la difer\u00e8ncia entre els punts i els valors sigui m\u00ednima.<\/p>\n<p><strong>Or\u00edgens de les xarxes neuronals (1940s\u20131960s)<\/strong><br \/>\nMcCulloch i Pitts (1943): Van proposar el primer model computacional d&#8217;una neurona, una versi\u00f3 molt simplificada per\u00f2 fonamental.<br \/>\nEl 1944 Hebb va proposar un model d\u2019aprenentatge en que els senyals entre nodes venien ponderats per pesos, i que quan dos nodes adjacents s\u2019activaven, el pes es refor\u00e7ava: Neurons that fire together, wire together.\u00a0 (la base bioqu\u00edmica dels pesos de la xarxa, potenciaci\u00f3 i inhibici\u00f3: neurones a tipus de c\u00e8l\u00b7lula animal). \u00a0El pensament sorgiria de patrons d\u2019activaci\u00f3 neuronal que es consoliden per l\u2019experi\u00e8ncia (Hebbian learning). [notem que ja no busquem un model basat en la nostra experi\u00e8ncia introspectiva del proc\u00e9s d\u2019entendre i buscar solucions, sin\u00f3 un model que explica inputs i outputs en una xarxa. (1949, <a href=\"https:\/\/en.wikipedia.org\/wiki\/Organization_of_Behavior\">The organization of Behavior<\/a>)<\/p>\n<p><strong>El Perceptron i l&#8217;hivern de la AI<\/strong><br \/>\nEl 1958 Frank Rosenblatt construeix el perceptron que va crear moltes expectatives per aconseguir m\u00e0quines que \u201cpensessin\u201d. Era un model d&#8217;aprenentatge supervisat en el sentit que els pesos es reajustaven m\u00e9s o menys segons la difer\u00e8ncia entre el resultat obtingut i l&#8217;esperat. El model que va construir tenia una entrada de 20&#215;20 connectat amb pesos ajustables a una sola neurona.\u00a0 Un cop entrenada podia recon\u00e8ixer un d\u00edgit.\u00a0 <a href=\"https:\/\/perceptrondemo.com\/\">Demo<\/a><br \/>\nPer\u00f2 el 1969 Minsky and Papert van descobrir les limitacions dels Perceptrons per incorporar la disjunci\u00f3 exclusiva XOR [o l\u2019un o l\u2019altre, per exemple si arr\u00f2s \u00e9s bo, i llet \u00e9s bona, no el podrem entrenar per que identifiqui \u00e9s bo si arr\u00f2s o -exclusiu- llet] i la recerca es va frenar. (<a href=\"https:\/\/en.wikipedia.org\/wiki\/AI_winter\">AI Winter<\/a>). Durant unes d\u00e8cades la AI va treballar sobretot manipulant cadenes de s\u00edmbols i aplicant l\u00f2gica de manera seq\u00fcencial amb programes com Prolog i Lisp. Funcionaven b\u00e9 en tasques com validar teoremes o rec\u00f3rrer arbres de diagn\u00f2stic per\u00f2 eren incapa\u00e7os de recon\u00e8ixer formes imperfectes. GOFAI (Good Old-Fashioned AI).<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/e\/e4\/Artificial_neural_network.svg\/800px-Artificial_neural_network.svg.png\" width=\"300\" \/><\/p>\n<p>xarxa d&#8217;una capa amb diverses neurones<\/p>\n<hr \/>\n<h2 id=\"connexionisme\">Connexionisme<\/h2>\n<p><strong id=\"representaciodistribuida\">Representacions distribu\u00efdes i esquemes<br \/>\n<\/strong>[Treball 1993] El 1986 es va publicar\u00a0<a href=\"https:\/\/en.wikipedia.org\/wiki\/Parallel_processing_(psychology)\">Parallel Distributed Processing<\/a>\u00a0per Rummelhart i Mclelland (<a href=\"https:\/\/direct.mit.edu\/books\/monograph\/4424\/Parallel-Distributed-Processing-Volume\">text<\/a>) que estudiava un model similar al del cervell.\u00a0 Les representacions no estarien emmagatzemades en forma de regles sin\u00f3 distribu\u00efdes en els pesos de les connexions dels nodes de la xarxa. Aix\u00ed, un input imperfecte activa una s\u00e8rie de nodes que identifiquen un patr\u00f3.<br \/>\nSembla clar que a una escala de segons i minuts, el proc\u00e9s cognitiu hum\u00e0 \u00e9s seq\u00fcencial. S\u2019examina un problema, es consideren diferents dades relacionades, s\u2019infereix una soluci\u00f3, s\u2019avaluen les expectatives, etc\u2026 Ara b\u00e9, cada un d\u2019aquests passos, com per exemple, recon\u00e8ixer una figura, identificar una situaci\u00f3 o recuperar una informaci\u00f3 de la mem\u00f2ria, es podria descompondre en una gran quantitat de processos petits. La hip\u00f2tesi del PDP \u00e9s que els microprocessos que constitueixen cada un dels passos seq\u00fcencials, s\u00f3n de naturalesa distribu\u00efda i no seq\u00fcencial. McClelland i Rummelhart parlen de la microestructura del coneixement, en el mateix sentit que les part\u00edcules subat\u00f2miques constitueixen i expliquen els \u00e0toms com a compostos superiors: \u201cen general, des del punt de vista de PDP, els objectes als quals es refereixen els models macroestructurals del proc\u00e9s cognitiu, es poden veure com a descripcions aproximades de les propietats emergents de la microestructura.<br \/>\nL\u2019estat d\u2019activaci\u00f3 d\u2019un node \u00e9s funci\u00f3 dels estats d\u2019activaci\u00f3 dels nodes amb qui est\u00e0 connectat ponderat per diferents pesos. S\u2019exploren diferents processos d\u2019actualitzaci\u00f3 dels pesos de la xarxa [que vindria a ser com un aprenentatge perceptiu]. Es pot ajustar per tal que la sortida correspongui a un\u00a0 output esperat, aprenentatge supervisat per exemples. Un d\u2019ells consisteix a propagar enrere la difer\u00e8ncia observada a la sortida (<strong>backpropagation<\/strong> error), aix\u00ed veiem quins nodes s\u00f3n responsables d\u2019acumular l\u2019error i baixem el pes. O b\u00e9 es poden anar repetint inputs similars fins que es reforcin certes connexions (aprenentatge no supervisat [aix\u00ed s\u2019associarien per exemple, la imatge d\u2019un gos amb com borda].<br \/>\nEncara no es coneixen els mecanismes d\u2019emmagatzematge d\u2019informaci\u00f3. No podem dir \u201cal concepte X o a la imatge de Y li correspon tal configuraci\u00f3 de neurones\u201d. A grans trets s\u00ed que s\u2019han identificat les\u00a0<a href=\"http:\/\/meumon.synology.me\/museu\/cervell-xarxa-neuronal\/#lesionshistologia\">\u00e0rees del cervell<\/a>\u00a0que reben les dades sensibles i que al l\u00f2bul frontal hi ha l\u2019\u00e0rea associativa lliure. En els estudis sobre mem\u00f2ria s\u2019observa\u00a0una mem\u00f2ria sensorial (&lt;1s), una mem\u00f2ria prim\u00e0ria (verbal, de l\u2019ordre de segons), una mem\u00f2ria secund\u00e0ria (minuts, anys), i una mem\u00f2ria terci\u00e0ria (permanent). El model PDP proposa que les percepcions consisteixen en patrons d\u2019activaci\u00f3 estables. Despr\u00e9s d\u2019un proc\u00e9s d\u2019aprenentatge, l\u2019activaci\u00f3 d\u2019un dels nodes [exemple imatge d\u2019un gos, ni que sigui parcial], activa la resta de nodes que acostumen a anar junts [regla de Hebb]. La informaci\u00f3 est\u00e0 en els pesos de les connexions entre nodes (neurones) w<sub>ij<\/sub>. Hi ha models per percepcions i per proc\u00e9s ling\u00fc\u00edstic, relacions tot-parts, i abstraccions. Recuperar informaci\u00f3 no \u00e9s obtenir un registre mitjan\u00e7ant una clau d\u2019\u00edndex sin\u00f3 que suposa un proc\u00e9s d\u2019infer\u00e8ncia: una informaci\u00f3 parcial, com la forma o la paraula, activa un patr\u00f3 amb tota la informaci\u00f3. (Senden\u00a0<a href=\"http:\/\/meumon.synology.me\/museu\/sensacions-i-percepcio\/#percepcio\">Percepci\u00f3<\/a>: aprenentatge perceptiu).\u00a0Els patrons estables d\u2019activaci\u00f3 que emmagatzemen informaci\u00f3 sobre un objecte, un grup d\u2019objectes o una situaci\u00f3, s\u00f3n anomenats\u00a0<strong>esquemes<\/strong>\u00a0en ci\u00e8ncia cognitiva.<br \/>\n[Basant-se en principis biol\u00f2gics i antropol\u00f2gics s\u2019ha dit que tots els \u00e9ssers vivents converteixen en signes tota experi\u00e8ncia, sense necessitat de ser signes pr\u00f2piament ling\u00fc\u00edstics. Una ameba aprofita experi\u00e8ncies passades per adaptar-se millor (CERDA, Ling\u00fc\u00edstica d\u2019avui p.64). Aix\u00f2 vol dir que la relaci\u00f3 de l\u2019organisme amb l\u2019entorn no consisteix nom\u00e9s en mat\u00e8ria i energia sin\u00f3 tamb\u00e9 en senyals. En els m\u00e9s primitius el senyal ser\u00e0 simplement \u2018estic en un medi amb aliment\u2019 o \u2018estic en un medi hostil\u2019. En animals m\u00e9s evolucionats hi haur\u00e0 una concepci\u00f3 de l\u2019espai, del territori, reconeixement del perill per indicis. Aix\u00f2 ja suposa una certa representaci\u00f3 del m\u00f3n. En l\u2019home aquesta representaci\u00f3 arribar\u00e0 a tenir objectes (categories de quantitat i qualitat) en l\u2019espai i el temps que se succeeixen en seq\u00fc\u00e8ncies causals. Si li afegim la capacitat biol\u00f2gica d\u2019emetre sons i la conviv\u00e8ncia tribal, d\u2019aqu\u00ed podr\u00e0 n\u00e9ixer el s\u00edmbol, el concepte i la comunicaci\u00f3.] Aquesta noci\u00f3 ha estat recollida en diferents aspectes al llarg de la hist\u00f2ria del pensament. A Kant (Brehier II 418) els esquemes eren la regla segons la qual podem construir les imatges corresponents a un concepte. (Ex. l\u2019esquema de la circumfer\u00e8ncia). I no oblidem que la imaginaci\u00f3 era qui determinava l\u2019experi\u00e8ncia en termes de les categories de l\u2019enteniment.\u00a0En Piaget (Richmond p.107) l\u2019esquema seria una unitat de conducta amb estructura. Es parla de l\u2019esquema de succi\u00f3, de prensi\u00f3, de despla\u00e7ament.<br \/>\nMinsky (1975) parl\u00e0 de marc (frame), Rumelhart (1975) de schema, i Smolensky munt\u00e0 la teoria de l\u2019harmonia amb una xarxa que codificava \u00e0toms de coneixement formant una estructura.<\/p>\n<p>Llenguatge: [Als 90, els models de Parallel Distributed Processing de Mclelland i Rummelhart oferien models per entendre com una xarxa pot funcionar com si apliqu\u00e9s regles tot i no tenir-les definides expl\u00edcitament. L\u2019exemple que es posa \u00e9s que l\u2019estructura hexagonal d\u2019un rusc resulta de les forces de compressi\u00f3, per\u00f2 el mecanisme que les executa no cont\u00e9 les regles de simetria amb qu\u00e8 es descriu. Tamb\u00e9 presenta un model sobre com conjuguem els verbs. (A PDP18 \u201cOn learning de past tenses of english verbs\u201d es presenta un model de xarxa on l\u2019input fon\u00e8tic de l\u2019arrel del verb \u00e9s descomposat en un segon nivell de nodes que es connecta a un tercer nivell que correspondr\u00e0 a la conjugaci\u00f3 del passat (p222). Entrenant la xarxa segons l\u2019aprenentatge d\u2019associaci\u00f3 de patrons (H1812.1, Perceptron, delta rule) s\u2019aconsegueix, despr\u00e9s d\u2019unes 500 passades, que la xarxa generi el passat dels verbs i que presenti la generalitzaci\u00f3 que fan els nens de conjugar de manera regular els verbs irregulars (\u201cs\u2019ha morit\u201d enlloc de \u201cs\u2019ha mort\u201d). Pels cassos en que els pesos de la xarxa proposen v\u00e0ries opcions cal refinar el model afegint a la sortida un mecanisme de competici\u00f3.<br \/>\nA PDP 19 \u201cMechanisms of sentence processing: assigning roles to constituents of sentences\u201d es presenta un model que explica c\u00f3m assignem estructura a una frase donada. D\u2019una banda tenim unes frases tipus (\u201chome menja aliment\u201d, \u201canimal es mou\u201d p.290), unes categories d\u2019objectes (home, animal, objecte, eina) als quals es poden assignar diferents valors d\u2019un alfabet (Pere, pau, ratol\u00ed, martell) amb unes certes microcaracter\u00edstiques (microfeatures). Un cop tenim la frase amb elements de l\u2019alfabet, l\u2019entrenament de la xarxa permet veure que \u201ccadira trenca home\u201d t\u00e9 una estructura c.directe + verb + subjecte (i no S + V + CD). Aix\u00f2 vol dir que sap assignar l\u2019estructura correcta fent servir el context sem\u00e0ntic.\u00a0El model s\u2019hauria de complicar amb d\u2019altres nivells per admetre la ramificaci\u00f3 de les estructures b\u00e0siques, \u00e9s a dir, que un sintagma nominal pot ser N, N+adjectiu, nom+oraci\u00f3 subordinada, etc (cf PDP p.318). Per aix\u00f2 hem de tenir una xarxa m\u00e9s gran, per\u00f2 tamb\u00e9 en un llenguatge com el Prolog, quan fem recursi\u00f3 de llistes tamb\u00e9 necessitem una pila (stack) m\u00e9s gran per anar emmagatzemant totes les determinacions que anem afegint al subjecte abans d\u2019arribar al verb (o en alemany quan en una subordinada llarga ens trobem el verb al final). Encara que una f\u00f3rmula l\u00f2gica admet recursi\u00f3 infinita N=a+N i la xarxa no (limitada pel volum), les implementacions concretes tamb\u00e9 estan limitades, en Prolog pel tamany de la pila i en l\u2019home per la mem\u00f2ria. Podem tractar frases complicades (\u00e9s a dir amb una ramificaci\u00f3 o recursi\u00f3) fins a un cert l\u00edmit\u00a0 [l\u00edmit que, per cert, esgotarien alguns fil\u00f2sofs com Hegel i els seus par\u00e0grafs].<\/p>\n<p>Parallel Distributed Processing* (McClelland &amp; Rumelhart, 1986)<br \/>\nFoundations \u2013 Explorations in the Microstructure of Cognition<\/p>\n<p>Part I: The PDP Perspective<br \/>\n1. The Appeal of Parallel Distributed Processing<br \/>\n2. A General Framework for Parallel Distributed Processing<br \/>\n3. Distributed Representations<br \/>\n4. PDP Models and General Issues in Cognitive Science<\/p>\n<p>Part II: Basic Mechanisms<br \/>\n5. Feature Discovery by Competitive Learning<br \/>\n6. Information Processing in Dynamical Systems: Foundations of Harmony Theory<br \/>\n7. Learning and Relearning in Boltzmann Machines<br \/>\n8. Learning Internal Representations by Error Propagation<\/p>\n<p>Part III: Formal Analyses<br \/>\n9. An Introduction to Linear Algebra in Parallel Distributed Processing<br \/>\n10. The Logic of Activation Functions<br \/>\n11. An Analysis of the Delta Rule and the Learning of Statistical Associations<br \/>\n12. Resource Requirements of Standard and Programmable Nets<br \/>\n13. P3: A Parallel Network Simulating System<\/p>\n<p>Part IV: Psychological Processes<br \/>\n14. Schemata and Sequential Thought Processes in PDP Models<br \/>\n15. Interactive Processes in Speech Perception: The TRACE Model<br \/>\n16. The Programmable Blackboard Model of Reading<br \/>\n17. A Distributed Model of Human Learning and Memory<br \/>\n18. On Learning the Past Tenses of English Verbs<br \/>\n19. Mechanisms of Sentence Processing: Assigning Roles to Constituents<\/p>\n<p>Part V: Biological Mechanisms<br \/>\n20. Certain Aspects of the Anatomy and Physiology of the Cerebral Cortex<br \/>\n21. Open Questions about Computation in Cerebral Cortex<br \/>\n22. Neural and Conceptual Interpretation of PDP Models<br \/>\n23. Biologically Plausible Models of Place Recognition and Goal Location<br \/>\n24. StateDependent Factors Influencing Neural Plasticity: A Partial Account of the Critical Period<br \/>\n25. Amnesia and Distributed Memory<\/p>\n<p>Part VI: Conclusion<br \/>\n26. Reflections on Cognition and Parallel Distributed Processing<\/p>\n<p><strong>Xarxes convolucionals (CNN) i reconeixement d&#8217;imatge<\/strong><\/p>\n<p>Xarxes convolucionals per a reconeixement d&#8217;imatge. (CNN). L&#8217;entrada \u00e9s una matriu de 2 dimensions.<br \/>\n1980: el neocognitron de Kunihiko Fukushima \u00e9s un primer model que s&#8217;inspira en la visi\u00f3 biol\u00f2gica. 1989\u20131998: Yann LeCun desenvolupa LeNet-5, una CNN per reconeixement de d\u00edgits (\u00fas a la banca per llegir xecs).<br \/>\n[a partir d&#8217;una matriu de p\u00edxels la xarxa \u00e9s capa\u00e7 de detectar vores. S&#8217;aplica un filtre sobre la imatge i es genera una &#8220;mapa de caracter\u00edstiques&#8221; (feature map, s&#8217;obtenen per exemple els valors m\u00e0xims i es comparen amb els mitjans. Els pesos del filtre s&#8217;ajusten durant l&#8217;entrenament. [la xarxa identifica el mateix patr\u00f3 final encara que hi hagi petits despla\u00e7aments o distorsions, s\u00f3n invariants a translacions petites].<br \/>\nAmb m\u00e9s capes podem fer, per exemple que un primer nivell identifiqui formes b\u00e0siques com un cercle o un oval, despr\u00e9s detectar vores i formes a dins, despr\u00e9s trobar uns ulls i un nas i finalment, un quart nivell recon\u00e8ixer un rostre [ho incorporen les apps de fotografia, i Picasa proposar identificar persones].<\/p>\n<p><strong>Xarxes neuronals recurrents (<a href=\"https:\/\/en.wikipedia.org\/wiki\/Recurrent_neural_network\">RNN<\/a>)<\/strong><\/p>\n<p>Estaven orientades a processar dades seq\u00fcencials com text o veu.<br \/>\n[D&#8217;alguna manera havien d&#8217;explicar com puc tenir alhora informaci\u00f3 del passat, com el comen\u00e7ament de la frase, o la frase anterior, i informaci\u00f3 del moment, com el final de la frase.] Com a antecedents te\u00f2rics tenim el model de McCulloch-Pitts (1943) i el Percepton de Rosenblatt. El 1982 Hopfield va proposar un model, recollint idees de mec\u00e0nica estad\u00edstica com el model de Ising que explica com s&#8217;orienten els spins en un s\u00f2lid ferromagn\u00e8tic. D&#8217;altres models van ser el de Jordan (1986) amb connexions recurrents des de la capa de sortida cap a una capa de context i Elman (1990) que afegia una capa oculta recurrent que guardava l&#8217;estat anterior, permetent processar seq\u00fc\u00e8ncies. [quan hi havia bastants passos, en mirar de corregir els pesos tirant enrere, el gradient desapareixia o explotava. Aix\u00f2 es va corregir amb els models Long short term memory LSTMs (1997) de Hochreiter i Schmidhuber que es van aplicar amb \u00e8xit per al erconeixement de veu. (2006) [per aix\u00f2 jo puc dictar al tel\u00e8fon].<br \/>\nLes xarxes entrenades es van fer servir per processament de llenguatge natural, predint les paraules seg\u00fcents. M\u00e9s tard es canviaria pel tractament de transformers als LLM. Tamb\u00e9 es van mirar d&#8217;aplicar a predicci\u00f3 de s\u00e8ries temporals com dades financeres o metereol\u00f2giques.<\/p>\n<p>[Una xarxa CNN entrenada pot identificar objectes a partir de matrius de pixels, gr\u00e0cies als pesos de la xarxa, projecten inputs molt diversos a un mapa de caracter\u00edstiques que correspon a un objecte. Una xarxa RNN entrenada pot predir la paraula que vindr\u00e0 (un cop tenim els pesos que enllacen diferents mots), o b\u00e9 projectar un input d&#8217;\u00e0udio a un mapa de caracter\u00edstiques que permetin assignar-lo a uns mots)<\/p>\n<p>Igual que les CNN, fins que no es van fer servir les GPU amb biblioteques com &#8220;TensorFlow&#8221; o &#8220;PyTorch&#8221;, no es podien abordar problemes complexos.<\/p>\n<p><strong id=\"cienciescognitives\">[Ci\u00e8ncies cognitives<\/strong><br \/>\nTota aquesta recerca, AI simb\u00f2lica i connexionisme, s&#8217;inscriu en un marc m\u00e9s ampli, el de les anomenades \u201cci\u00e8ncies cognitives\u201d. Aquestes pretenien abastar qualsevol \u201coperaci\u00f3 o estructura mental que es pugui estudiar amb precisi\u00f3\u00a0 (Lakoff and Johnson, 1999), i per tant abasten AI, percepci\u00f3, mem\u00f2ria, llenguatge (sintaxi, Lakoff i Johnson i la met\u00e0fora), el paper del cos en la cognici\u00f3 (Varela, The embodied Mind), i consci\u00e8ncia.<br \/>\nA m\u00e9s dels experiments de conducta tradicionals, incorporen els resultats de la neurobiologia, simulacions de les operacions de la ment simb\u00f2liques i subsimb\u00f2liques (el PDP), i discussions de la filosofia de la ment [a la qual vaig dedicar la tesina mirant d\u2019argumentar la limitaci\u00f3 del seu plantejament com a manera d\u2019entendre la condici\u00f3 humana:\u00a0<a href=\"http:\/\/meumon.synology.me\/ephemeracat\/tf\/filo\/treball1.htm\">Els exemples en la filosofia de la ment<\/a>.<\/p>\n<hr \/>\n<h2 id=\"deeplearning\">Aprenentatge autom\u00e0tic<\/h2>\n<p><strong>La implementaci\u00f3 de xarxes neuronals, GPU<\/strong><br \/>\nEn ordinadors d\u2019arquitectura\u00a0 Von Neumann, amb una CPU, s\u00f3n costoses. Al s21 els aven\u00e7os en hardware ho han fet possible i tamb\u00e9 s\u2019han constru\u00eft altres arquitectures: (CGPT) Targetes gr\u00e0fiques (GPU) que poden treballar en paral\u00b7lel. [D\u2019aqu\u00ed la rellev\u00e0ncia de Nvidia]. Tensor Processing Units (TPUs) desenvolupades per Google per a entrenar xarxes. Field-Programmable Gate Arrays (FPGAs). Application-Specific Integrated Circuits (ASICs).<br \/>\nLes xarxes neuronals artificials (ANN) han resultat efectives a l\u2019hora de recon\u00e8ixer patrons, per exemple en patologia m\u00e8dica, identificar patrons en grans conjunts de dades (machine learning) tant en temes de salut com de tend\u00e8ncies de consum, reconeixement de veu, predicci\u00f3 de textos.\u00a0 Juntament amb m\u00e8todes tradicionals com arbres de decisi\u00f3, support vector machines (SVMs), k-nearest neighbors (k-NN), i logistic regression, formen part del r\u00e0pid desenvolupament de la AI.<br \/>\n[Inicialment les targetes gr\u00e0fiques estaven pensades per processar matrius de 2 dimensions, per\u00f2 actualment poden treballar amb tensors de fins 8 dimensions. Les dades s\u00f3n convertides a tensors i despr\u00e9s tractades eficientment per les GPU]<\/p>\n<p><strong>AlexNet<\/strong><br \/>\nEl 2012 la AlexNet va guanyar el concurs ImageNet Large Scale Visual Recognition Challenge (ILSVRC). Imagenet era una base de dades d&#8217;11M d&#8217;imatges classificades en 20.000 categories obtingudes a partir del l\u00e8xic Wordnet. Va ser creada per Fei-Fei Li. AlexNEt era una CNN profunda desenvolupada per Alex Krizhevsky i * Ilya Sutskever, sota la direcci\u00f3 de Geoffrey Hinton (mentor i figura clau del deep learning). Es va entrenar per classificar 1.2 milions d\u2019imatges en 1000 categories amb un 15% d&#8217;error. Tenia una arquitectura de 8 capes d\u2019aprenentatge (5 convolucionals + 3 completament connectades). Es va fer servir una GPU (NVIDIA GTX 580).<br \/>\nVa quedar demostrat que amb suficient pot\u00e8ncia i suficient volum de dades, la AI podia oferir resultats. Va inspirar arquitectures posteriors molt m\u00e9s sofisticades com VGGNet i GoogLeNet (Inception) (2014) i ResNet (2015).<\/p>\n<p>Tindrem CNNs millorades: VGG, ResNet, Inception&#8230; i RNNs \/ LSTM \/ GRU: Per processar llenguatge, veu i seq\u00fc\u00e8ncies.<\/p>\n<p><strong>Machine Learning<\/strong><br \/>\nL&#8217;aprenentatge autom\u00e0tic es basa essencialment en extreure la informaci\u00f3 rellevant d&#8217;un gran conjunt de dades aplicant compressi\u00f3. Per exemple en una imatge de 1MB, nom\u00e9s potser 10KB d\u2019informaci\u00f3 s\u00f3n \u00fatils per saber si hi ha un gos o un gat. La resta \u00e9s soroll o detall innecessari. Els models de ML filtren o resumeixen dades per adaptar-se a una tasca: classificar, predir, etc. En teoria de la informaci\u00f3 es parla de &#8220;principi d\u2019informaci\u00f3 m\u00ednima&#8221; (Minimum Description Length, MDL), el millor model \u00e9s el que millor comprimeix les dades [sense perdre informaci\u00f3].[&gt;&gt; quan formulem una llei en f\u00edsica, tamb\u00e9 comprimim informaci\u00f3, potencialment, infinites parelles de valors relacionats y=f(x) queden resumits en una funci\u00f3 matem\u00e0tica].<br \/>\nPer exemple, imatges a JPEG, WebP, \u00e0udio a mp3, text a zip, v\u00eddeo a mpg. Hi ha autoencoders, que comprimeixen sense supervisi\u00f3, VAEs que comprimeixen i generen quelcom diferent.<\/p>\n<p><strong>Data Mining<\/strong><br \/>\nUn altre vessant del ML \u00e9s la mineria de dades (Data Mining). Pot consistir a identificar patrons sense saber quina \u00e9s la resposta correcta (unsupervised learning), per exemple si en un supermercat, els que compren bolquers tamb\u00e9 compren cervesa (Amb eines com Phyton i libreria mlxtend, R, Scala amb llibreria Mlib). Tamb\u00e9 quan volem arribar a un resultat com classificar correu entre spam i no spam, predicci\u00f3 de fallides en m\u00e0quines industrials.<br \/>\n[En f\u00edsica quan tenim un conjunt de dades, intentem proposar un model formulant una funci\u00f3 i despr\u00e9s mirar si els resultats s&#8217;hi ajusten, tamb\u00e9 podem assajar aproximaci\u00f3 per polinomis o s\u00e8ries de Fourier].<br \/>\nUn cas real d&#8217;aplicaci\u00f3 s\u00f3n les cadenes de restaurants que han utilitzat data mining i machine learning per predir comandes segons variables com el dia, l\u2019hora, festius, meteorologia o esdeveniments esportius. QSR chain va estalviar 8.5M$ integrant les dades de PredictHQ www.predicthq.com optimitzant ivnentari, log\u00edstica i plantilla. McDonald\u2019s va comprar la startup Dynamic Yield el 2019 per personalitzar el men\u00fa al &#8220;drive-thru&#8221;. [Un restaurant petit ho feia per intu\u00efci\u00f3].<\/p>\n<hr \/>\n<h2 id=\"evolucio\">AI GENERATIVA<\/h2>\n<h2>Evoluci\u00f3<\/h2>\n<p>Intel\u00b7lig\u00e8ncia Artificial Generativa. Amb GPT, DALL\u00b7E i altres sistemes generatius, el criteri d\u2019intel\u00b7lig\u00e8ncia s\u2019ha ampliat per incloure la capacitat de crear contingut nou i coherent, com text, imatges, m\u00fasica o codi, que sembla creat per un \u00e9sser hum\u00e0. Aquests models es basen en xarxes neuronals profundes entrenades amb enormes quantitats de dades, i poden generar respostes o continguts que semblen creatius i contextualment rellevants. Ara es considera que les m\u00e0quines poden mostrar una forma de \u201ccreativitat\u201d artificial, tot i que no tenen consci\u00e8ncia ni intencionalitat. Poden interaccionar de manera natural i fluida amb humans. Es discuteix si aquestes capacitats suposen comprensi\u00f3 real, m\u00e9s enll\u00e0 de la generaci\u00f3 de respostes basades en patrons estad\u00edstics.<\/p>\n<p>\ud83d\udcdd Text (LLMs: Large Language Model) de frases trencades a assistents que passen ex\u00e0mens legals\/m\u00e8dics.<br \/>\n&#8211; 2015-2017: GPT-1 (OpenAI, 2018) i BERT (Google, 2018) demostren que els transformers poden entendre context. Generen frases curtes i incoherents.<br \/>\n&#8211; 2018-2020: GPT-2 (2019) sorpr\u00e8n amb text coherent, per\u00f2 es limita per por a desinformaci\u00f3. GPT-3 (2020) escala a 175B par\u00e0metres, permetent articles llargs i codi.<br \/>\n&#8211; 2022-Actualitat: ChatGPT (2022) popularitza els xatbots. GPT-4 Turbo (2023) i Claude 3 (2024) afinen precisi\u00f3 i context (fins a 1M tokens).<br \/>\n(<a href=\"https:\/\/www.quantamagazine.org\/when-chatgpt-broke-an-entire-field-an-oral-history-20250430\/?utm_source=pocket_saves\">Quanta<\/a>, hist\u00f2ria de com es van desenvolupar els LLM)<\/p>\n<p>\ud83c\udfa8 Imatge (Text-to-Image): d\u2019imatges de 64&#215;64 p\u00edxels a *fotorealisme i estils art\u00edstics complexos*.<br \/>\n&#8211; 2015-2018: GANs (2014) genera imatges borroses (ex: DCGAN), StyleGAN (2018) crea cares falses hiperrealistes (per\u00f2 amb errors).<br \/>\n&#8211; 2021-2022: DALL\u00b7E 2 (2022) i Stable Diffusion (2022) permeten imatges detallades des de text.<br \/>\n&#8211; 2023-Actualitat: MidJourney v6 (2023) i DALL\u00b7E 3 (2024) dominen en qualitat art\u00edstica. Adobe Firefly integra IA en Photoshop.<\/p>\n<p>\ud83c\udfb5 M\u00fasica (AI Audio): de melodies rob\u00f2tiques a \u00e0lbums complets per IA.<br \/>\n&#8211; 2015-2020: WaveNet (Google, 2016) genera veu sint\u00e8tica poc natural. Jukedeck (2019) crea m\u00fasica simple, adquirida per TikTok.<br \/>\n&#8211; 2021-2024: Riffusion (2022) genera m\u00fasica des de text. Suno AI v3 (2024) crea can\u00e7ons completes amb lletra i veu (ex: &#8220;L\u2019IA que composa en catal\u00e0&#8221;).<\/p>\n<p>\ud83c\udfa5 V\u00eddeo (Text\/Image-to-Video): d\u2019efectes visuals simples a curtmetratges sint\u00e8tics.<br \/>\n&#8211; 2015-2021: DeepDream (Google, 2015) nom\u00e9s feia al\u00b7lucinacions psicod\u00e8liques. GANs generaven clips de 2 segons amb artefactes.<br \/>\n&#8211; 2022-2024: Runway ML (2022) i Pika Labs (2023) permeten v\u00eddeos de 3-4 segons. Sora (OpenAI, 2024) genera clips de 60 segons amb coher\u00e8ncia esc\u00e8nica.<\/p>\n<p>S&#8217;ha passat d&#8217;un producte experimental, amb errors, restringit a desenvolupadors, lent, a una qualitat gaireb\u00e9 humana, accessible a tothom amb un navegador, que respon en segons. La facilitat per crear deepfakes fa necess\u00e0ria una regulaci\u00f3. Genera preocupaci\u00f3 si molts llocs de treball esdevenen obsolets.<\/p>\n<hr \/>\n<h2 id=\"eines\">Eines i desenvolupament<\/h2>\n<p>Els llenguatges precursors de Machine Learning abans dels 90 van ser FORTRAN, per la matem\u00e0tica, i APL i S per a l&#8217;estad\u00edstica. Serien substituits per MATLAB, R i, a partir dels anys 2000, Phyton (amb les biblioteques NumPy i SciPy, scikit-learn, Pandas). Actualment domina Phyton, en machine learning i AI, (amb biblioteques com TensorFlow i PyTorch per a xarxes neuronals, Keras com a interf\u00edcie d&#8217;alt nivell per a TensorFlow, XGBoost i LightGBM per a models de boosting, i Hugging Face per models de llenguatge natural NLP). Segueix R per estad\u00edstica i SQL per les bases de dades. Tamb\u00e9 hi ha Julia per c\u00e0lcul cient\u00edfic. Entorns de desenvolupament integrats (IDEs): Jupyter Notebooks, Google Colab: Entorn basat en n\u00favol per a executar codi de ML. Frameworks de Deep learning:TensorFlow (Google) i PyTorch (Facebook) amb el format d&#8217;intercanvi.<br \/>\nLes dades que s&#8217;utilitzen en ML es poden allotjar en una gran varietat d&#8217;estructures, des de bases de dades relacionals SQL (MySQL, PostgreSQL), o no SQL (Mongodb) fins a sistemes de Big Data (Hadoop, Spark) o arxius locals (CSV, JSON). Per entorns de producci\u00f3 escalables hi haGoogle BigQuery, Amazon Redshift i Snowflake. Python ofereix biblioteques i connectors per interactuar amb gaireb\u00e9 qualsevol tipus de font de dades.<\/p>\n<hr \/>\n<h2 id=\"llm\">LLM Grans Models de llenguatge<\/h2>\n<ul>\n<li>Material d&#8217;entrenament<\/li>\n<li>Transformers, com es codifica la relaci\u00f3 entre paraules. Capes<\/li>\n<li>Codi: Github i Llama<\/li>\n<li>Usos<\/li>\n<\/ul>\n<p><strong>Material entrenament<\/strong><\/p>\n<p>L&#8217;entrenament dels models GPT (Generative Pre-trained Transformer), t\u00e9 una etapa no supervisada on processa grans quantitats de text no etiquetat (llibres, articles, p\u00e0gines web, etc.).<\/p>\n<p>BERT<br \/>\nEs va entrenar amb el Toronto Book Corpus de 800M de mots i la Wikipedia en angl\u00e8s, de 2500M de mots i un vocabulari de 30m mots. (Nota: en l&#8217;entrenament no s&#8217;etiqueten obres factuals de f\u00edsica, geografia, hist\u00f2ria, d&#8217;obres de ficci\u00f3).<\/p>\n<p>ChatGPT. 500B total de tokens, (% del total, % real del total, amplificaci\u00f3, <a href=\"https:\/\/gregoreite.com\/drilling-down-details-on-the-ai-training-datasets\/\">gregoreiter<\/a>)<\/p>\n<ul>\n<li><a href=\"https:\/\/commoncrawl.org\/\">CommonCrawl<\/a> 410B, 60%, 82%, -0.27. Un cop al mes buida tot internet. S\u00f3n 2.74 10e9 p\u00e0gines web que ocupen 468 TiB descomprimides (=468*1024 Gib, aprox 500m Gb, si el meu synology t\u00e9 4 Tb, la internet sencera sense imatges, ni audio, ni v\u00eddeo s\u00f3n unes 100 synologis]<\/li>\n<li>WebText2 19B, 20%, 4%, +5.00. Una selecci\u00f3 supervisda del common crawl que s&#8217;amplifica (el 4% de dades acaba suposant un 20%)Books1 &amp; Books2 67B, 15%, 13%, +0.15. Llibres de domini p\u00fablic que no se sap ben b\u00e9 d&#8217;on venen.<\/li>\n<li>Wikipedia 3B, 5%, 1%, +5.00<\/li>\n<\/ul>\n<p>Llama, Palm, Anthropic han reportat tamb\u00e9 fonts t\u00e8cniques: <a href=\"https:\/\/github.com\/\">GitHub<\/a>, <a href=\"https:\/\/arxiv.org\/\">ArXiv<\/a>\u00a0 articles de ci\u00e8ncies, <a href=\"https:\/\/stackexchange.com\/sites\">Stack Exchange<\/a>\u00a0 dins del qual hi ha Stack Overflow dedicat a programaci\u00f3.<\/p>\n<p>Grok fa servir missatges de twitter i X. Meta fa servir missatges p\u00fablics de Facebook i instagram, no missatges privats de Whatsapp.<\/p>\n<p>Generaci\u00f3 de dades sint\u00e8tiques<br \/>\nEls models parteixen de les dades esmentades per\u00f2 despr\u00e9s les poden ampliar fent preguntes al mateix model. Per exemple, si el primer model ha incporprat el text: &#8220;El calci \u00e9s essencial per a la formaci\u00f3 d\u2019ossos i dents, la contracci\u00f3 muscular, la coagulaci\u00f3 de la sang i la transmissi\u00f3 nerviosa.&#8221;. La pregunta &#8220;Per qu\u00e8 el calci \u00e9s necessari per al funcionament muscular?&#8221; genera obt\u00e9 la resposta &#8220;El calci activa les prote\u00efnes del m\u00fascul que permeten la contracci\u00f3. Sense calci, els m\u00fasculs no poden contraure\u2019s adequadament.&#8221; que \u00e9s una dada sint\u00e8tica. Les dades sint\u00e8tiques estalvien diners i llic\u00e8ncies. Poden crear dades molt espec\u00edfiques, m\u00e9s preguntes de matem\u00e0tiques, explicacions pas a pas o resums. Poden generar 10x m\u00e9s dades \u00fatils amb pocs recursos humans.<br \/>\nPer preparar les preguntes rellevants que no siguin trivials es pot fer: (1) Bootstrap. Demanar al mateix model que generi 100 preguntes \u00fatils en un domini determinat o *&#8221;Genera 20 preguntes que un estudiant de f\u00edsica de segon curs podria fer.&#8221; (2). Partir de F\u00f4rums i resumir i generalitzar preguntes. (3). Di\u00e0leg supervisat com fer llegir un text i demanar un resum.<br \/>\nDeepSeek ha preparat 800m exemples d&#8217;alta qualitat, i aix\u00f2 li permet tenir un model eficient amb menys volum de dades.<\/p>\n<p><strong>Transformers, BERT i GPT<\/strong><br \/>\nEls Transformers (com BERT i GPT) s\u00f3n una arquitectura revolucion\u00e0ria en el Processament del Llenguatge Natural (NLP). La seva clau \u00e9s l&#8217;\u00fas de mecanismes d&#8217;atenci\u00f3 (&#8220;attention&#8221;) per processar paraules en paral\u00b7lel i capturar relacions a llarga dist\u00e0ncia en el text. Es va establir amb l&#8217;article <a href=\"https:\/\/en.wikipedia.org\/wiki\/Attention_Is_All_You_Need\">Attention is all you need<\/a> de 2017. La idea inicial era de fer-ho servir per traducci\u00f3 autom\u00e0tica.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/3\/34\/Transformer%2C_full_architecture.png\" \/><\/p>\n<p>Els components clau s\u00f3n:<\/p>\n<ul>\n<li>Self-Attention (atenci\u00f3 auto-centrada): Calcula com cada paraula es relaciona amb les altres en una frase.<\/li>\n<li>Multi-Head Attention: Diverses capes d&#8217;atenci\u00f3 en paral\u00b7lel per capturar diferents tipus de relacions.<\/li>\n<li>Positional Encoding: Com que els Transformers no tenen mem\u00f2ria seq\u00fcencial com les RNN, s\u2019afegeix informaci\u00f3 sobre la posici\u00f3 de cada paraula.<\/li>\n<li>Feed-Forward Networks: Capes addicionals per processar les representacions.<\/li>\n<\/ul>\n<p>Encoder<br \/>\nUtilitzat per models com BERT, per a tasques d\u2019&#8221;entendre&#8221; el text. L&#8217;objectiu \u00e9s recollir el context d\u2019una paraula analitzant tant l\u2019esquerra com la dreta (bidireccional). S\u2019entrena amb dues tasques: Masked Language Model (MLM) que amaga un 15% de les paraules i el model ha de predir-les (ex. &#8220;El gat [MASK] damunt la taula.&#8221;) Next Sentence Prediction (NSP), que prediu si dues frases van juntes o no. Fine-tuning: Despr\u00e9s del pre-entrenament, s\u2019ajusta per a tasques espec\u00edfiques (classificaci\u00f3, Q&amp;A, etc.).<\/p>\n<p>Tokenizer: S&#8217;assigna un enter als mots. Embedding (incrustaci\u00f3 de mots): D&#8217;acord amb l&#8217;arquitectura del model, a cada token se li fa correspondre un vector de n dimensions (768 a BERT base i 1024 a BERT large). Combinen combinen informaci\u00f3 de tokens, segment (a quina frase apareixen) i posici\u00f3 (quina posici\u00f3 tenen en la frase). [No acabo d&#8217;entendre com se sumen per\u00f2] el vector recull la probabilitat de quins mots pot estar envoltat, de manera que fent l&#8217;exercici d&#8217;emmascarar (el gos [?] la pilota), el model ho pot predir. [el meu capell t\u00e9 tres &#8230; PUNTES]. El model tamb\u00e9 podr\u00e0 predir quina frase \u00e9s probable que vingui despr\u00e9s d&#8217;una altra. [Entenc que un cop tenim codificat el tokens, podem preguntar quins tenen posicions pr\u00f2ximes per fer prediccions ].<\/p>\n<p>Decoder<br \/>\nUtilitzat per models com GPT, per a tasques de &#8220;generar&#8221; text amb l&#8217;objectiu de generar text seq\u00fcencialment. Pre-entrenament: S\u2019entrena amb Language Modeling (predir la paraula seg\u00fcent donat el context passat). Fine-tuning: S\u2019ajusta per a tasques com traducci\u00f3, resum, o xat (com ChatGPT). Exemple: Prompt: &#8220;El gat \u00e9s&#8230;&#8221; i GPT continua: &#8220;&#8230;dalt del sof\u00e0 i mira per la finestra.&#8221; No \u00e9s biudireccional [tot i que seria interessant provar que gener\u00e9s les frases anteriors, com si donessim la part final d&#8217;una novel\u00b7la i li deman\u00e9ssim que s&#8217;invent\u00e9s els primers cap\u00edtols]<\/p>\n<p>La fase supervisada (fine-tuning) d\u00f3na al model un conjunt de preguntes i respostes aprovades. Aix\u00ed se&#8217;l prepara per a tasques com traducci\u00f3 o resums de text [als anys 90, quan es comen\u00e7ava a traduir al catal\u00e0 &#8220;El Peri\u00f3dico, es feia en dues fases, primer una traducci\u00f3 autom\u00e0tica, i despr\u00e9s una correcci\u00f3 humana que s&#8217;incorporava al model]. Tamb\u00e9 es pot corregir amb supervisi\u00f3 humana (Reinforcement Learning from Human Feedback RLHF). [Es filtren tamb\u00e9 respostes de risc, que puguin induir al su\u00efcidi o a atemptar contra els altres].<br \/>\nPer exemple, en la fase no supervisada el model apr\u00e8n que despr\u00e9s de &#8220;El cel \u00e9s&#8230;&#8221; \u00e9s probable que segueixi &#8220;blau&#8221;. En la fase supervisada apr\u00e8n a respondre correctament a &#8220;Quin color t\u00e9 el cel?&#8221; amb &#8220;El cel \u00e9s blau quan est\u00e0 clar&#8221;.<br \/>\nHi ha milions de persones treballant a baix cost per polir la supervisi\u00f3, en reconeixement d&#8217;imatge o en preguntes i respostes (<a href=\"https:\/\/www.theverge.com\/features\/23764584\/ai-artificial-intelligence-data-notation-labor-scale-surge-remotasks-openai-chatbots\">The Verge<\/a>,\u00a0 <a href=\"https:\/\/www.wired.com\/story\/millions-of-workers-are-training-ai-models-for-pennies\/\">Wired<\/a>)<\/p>\n<p>El proc\u00e9s \u00e9s similar al de l&#8217;aprenentatge del llenguatge dels infants, que aprenen a parlar escoltant frases del seu entorn (sense explicacions gramaticals expl\u00edcites). Els dos identifiquen patrons. La difer\u00e8ncia important \u00e9s que els infants associen paraules amb objectes i experi\u00e8ncies reals (tinc fred) mentre que els GPT nom\u00e9s identifiquen correlacions entre paraules. Els infants interaccionen amb persones en un context emocional determinat, tenen una intenci\u00f3 en la comunicaci\u00f3 [pragm\u00e0tica]. Els infants poden inventar-se paraules noves com &#8220;espagetificar&#8221; per a &#8220;menjar espaguetis&#8221;) mentre que els GPT nom\u00e9s remesclen les dades existents. Els infants s\u00f3n supervisats pels pares i mestres, que es corregeixen els errors. &#8220;Un infant no \u00e9s un &#8220;model estad\u00edstic&#8221;: t\u00e9 curiositat, vol comunicar-se i experimenta el m\u00f3n. Un GPT, en canvi, \u00e9s una eina sofisticada que simula el llenguatge hum\u00e0 sense cap comprensi\u00f3 subjacent. Exemple: Si un infant diu &#8220;estic trist&#8221;, ho fa perqu\u00e8 *sent* tristesa. Si un GPT diu &#8220;estic trist&#8221;, nom\u00e9s est\u00e0 seguint un patr\u00f3 textual associat a contextos similars.&#8221;<\/p>\n<p>BERT Base: 12 capes (transformer encoders, bidireccional), 12 cap\u00e7als d&#8217;atenci\u00f3, 768 dimensi\u00f3 de l&#8217;embedding, 110M tokens.<br \/>\nBERT Large: 24 capes, 16 cap\u00e7als d&#8217;atenci\u00f3, 1024 dimensi\u00f3\u00a0 de l&#8217;embedding, 340M tokens.<br \/>\nGPT-3: 96 capes, 96 cap\u00e7als d&#8217;atenci\u00f3 unidireccional, 12.288 dimensi\u00f3 de l&#8217;embedding, 175B<br \/>\nDeepSeek: 64 capes, 64 cap\u00e7als d&#8217;atenci\u00f3, 8.192 embedding, 67B par\u00e0metres<\/p>\n<p>[No vol dir que hi ha un head per capa, 96 capes i 96 heads vol dir que cada un recull el que troben 96 heads][Sembla que els diferents heads no estan dissenyats per a capturar aspectes espec\u00edfics per\u00f2 a la pr\u00e0ctica la recerca revela que es capturen relacions ling\u00fc\u00edstiques determinades: relacions sint\u00e0ctiques, relacions sem\u00e0ntoques, control contextual, mirar enrere per validar continu\u00eftat narrativa.<br \/>\nPer exemple la frase &#8220;Un cop va haver arribat a Lausanne, el primer que va fer en Jordi va ser anar a buscar els seus n\u00e9ts a l&#8217;escola i els va convidar a berenar.&#8221; En BERT hi ha estudis que suggereixen:<\/p>\n<p>Subjecte \u2013 verb (&#8220;en Jordi&#8221; \u2192 &#8220;va fer&#8221;, &#8220;va convidar&#8221;), capa 7, head 3<br \/>\nPronom \u2013 antecedent (&#8220;els&#8221; \u2192 &#8220;n\u00e9ts&#8221;), capa 19, head 9<br \/>\nMarques temporals (&#8220;Un cop&#8221; \u2192 &#8220;va haver arribat&#8221;), capa 5, head 0<br \/>\nN\u00facli sem\u00e0ntic general (focus sobre accions i actors), cap 11, head 7<\/p>\n<ul>\n<li><a href=\"https:\/\/chat.openai.com\/auth\/login\">ChatGPT<\/a> (OpenAI): GPT-3.5 175B de par\u00e0metres, entrenat a partir de 570GB de text (llibres, webs). GPT-4. ~1.8T.. API per desenvolupadors.<\/li>\n<li><a href=\"https:\/\/gemini.google.com\/app?hl=es\">Gemini<\/a> (Google) \u2013 Abans anomenat Bard, basat en models com Gemini 1.5. Entrenats potser amb Pbytes. API per desenvolupadors.<\/li>\n<li><a href=\"https:\/\/claude.ai\/new\">Claude<\/a> (Anthropic) \u2013 Models com Claude 3. , API.<\/li>\n<li>Llama (Meta) \u2013 Models oberts com Llama 2 i Llama 3. 400B par\u00e0metres. Model open-weight (per baixar i autoallotjar).<\/li>\n<li>Copilot (Microsoft) \u2013 Basat en GPT-4 i altres models. Integrat a Office i els navegadors Edge amb cercador Bing.<\/li>\n<li><a href=\"https:\/\/grok.com\/\">Grok<\/a> (xAI, d&#8217;Elon Musk) \u2013 Basat en models propis.<\/li>\n<li><a href=\"https:\/\/chat.deepseek.com\/\">Deepseek<\/a>, LLM xin\u00e8s construit amb menys cost que chatgtp4 6$M en lloc de 100$M) i una desena part de de pot\u00e8ncia de computaci\u00f3 de Llama.<\/li>\n<li>Per desenvolupadors: Mistral &amp; Mixtral (Mistral AI), Hugging Face Transformers.<\/li>\n<\/ul>\n<p>No hi ha dades actualitzades sobre quantes preguntes o converses es fan di\u00e0riament. Es calcula que chatGPT t\u00e9 100M DAU, Gemini 50M, Microsoft Copilot 30M, Claude Anthropic 10M, Grok 5M.\u00a0 Les versions avan\u00e7ades costen uns 20\u20ac al mes.<\/p>\n<p>\ud83d\udcbb Models de Codi (AI Assistents de Programaci\u00f3)<\/p>\n<ul>\n<li>GitHub Copilot (Microsoft): 1.3M+ usuaris de pagament (2024), ~30M l\u00ednies de codi generades di\u00e0riament. $10\/mes per a individuals) | Gratu\u00eft per a estudiants i projectes open-source verificats.<\/li>\n<li>CodeLlama (Meta): Model obert, utilitzat per empreses i desenvolupadors aut\u00f2noms (sense dades p\u00fabliques). Gratu\u00eft per\u00f2 cal tenir equip propi.<\/li>\n<\/ul>\n<p>Els xatbots es fan servir:<br \/>\n25-35% com a enciclop\u00e8dia o cercador avan\u00e7at. Per exemple, &#8220;Explica la teoria de la relativitat d\u2019Einstein en paraules senzilles&#8221; o &#8220;Quina \u00e9s la difer\u00e8ncia entre un ETF i un fons d\u2019inversi\u00f3?&#8221;. Poden cometre errors i no sempre citen les fonts (excepte Bing Copilot, que enlla\u00e7a a p\u00e0gines web).<br \/>\n40-50% com assist\u00e8ncia de productivitat, resums, traduccions, correcci\u00f3 de textos, generaci\u00f3 de informes, preparaci\u00f3 de presentacions. Copilot augmenta extraordin\u00e0riament la productivitat. ChatGPT t\u00e9 eines per analitzar dades d&#8217;excel.<br \/>\n20-30% com a col\u00b7laborador creatiu, ja sia escrivint codi o inventant una narraci\u00f3. Per exemple &#8220;Escriu un poema en vers lliure sobre el mar&#8221; o &#8220;Genera un script en Python per a analitzar dades meteorol\u00f2giques&#8221;. Vara Vauhini fa servir chatGPT per inspirar-se a l&#8217;hora d&#8217;escriure (<a href=\"https:\/\/www.newyorker.com\/books\/under-review\/can-ai-writing-be-more-than-a-gimmick\">NewYorker<\/a>).<br \/>\nGitHub Copilot \u00e9s utilitzat per 1.3M+ desenvolupadors per escriure codi m\u00e9s r\u00e0pid.<\/p>\n<h2 id=\"media\">Media<\/h2>\n<p>L&#8217;\u00fas encara va molt per endarrere dels GPT per\u00f2 est\u00e0 en creixement.\u00a0 Un 30% s\u00f3n artistes professionals.<\/p>\n<p>\ud83c\udfa8 Models d&#8217;Imatge (Text-to-Image)<br \/>\nDavid Salle sobre com entrenar (<a href=\"https:\/\/artreview.com\/how-to-train-an-artistic-ai-opinion-david-salle\/\">Art review<\/a>).<\/p>\n<ul>\n<li>MidJourney: 15M+ usuaris (2024), amb ~1M imatges generades di\u00e0riament. ($10-$120\/mes) per subscripci\u00f3 via Discord.<\/li>\n<li><a href=\"https:\/\/openart.ai\/home?msclkid=36b49911dd9a12b6bdbaf17360229584&amp;utm_source=bing&amp;utm_medium=cpc&amp;utm_campaign=Ser%20-%20EU%20-%20Midjourney%20%26%20Dalle&amp;utm_term=dall%20e&amp;utm_content=Dall%20e%20-%20Exact%20-%200.1\">DALL\u00b7E 3<\/a> (OpenAI): Integrat a ChatGPT, genera milions d\u2019imatges\/dia (no hi ha xifres p\u00fabliques exactes). Gratu\u00eft amb limitacions.<\/li>\n<li><a href=\"https:\/\/stabledifffusion.com\/\">Stable Diffusion<\/a> (Stability AI): 10M+ desc\u00e0rregues del model (open-source), per\u00f2 dif\u00edcil mesurar l\u2019\u00fas diari.<\/li>\n<li>Firefly (Adobe): 2B+ imatges creades des del llan\u00e7ament (2023), ~5M\/dia estimat, l\u00edmit de 25 generacions al mes o ampliaci\u00f3 per $4.99\/mes.<\/li>\n<li><a href=\"https:\/\/openart.ai\/home\">Openart<\/a><\/li>\n<\/ul>\n<p>\ud83c\udfa5 Models de V\u00eddeo (Text\/Image-to-Video)<\/p>\n<ul>\n<li>\u00a0Sora (OpenAI): integrat en ChatGPT Plus $20, i chatGPTPro ($200\/mes)<\/li>\n<li>Runway ML: 1M+ usuaris, amb ~100K v\u00eddeos generats di\u00e0riament (estimaci\u00f3). ($10-$50\/mes). Versi\u00f3 gratu\u00efta amb marca d&#8217;aigua i cues d&#8217;espera.<\/li>\n<li><a href=\"https:\/\/pikartai.com\/login\/\">Pika Labs<\/a>: ~500K usuaris actius (dades comunit\u00e0ries).\u00a0 [gratuit?] <a href=\"https:\/\/pikaswift.com\/\">pikaswift<\/a><\/li>\n<\/ul>\n<p>\ud83c\udfb5 Models de Veu\/M\u00fasica<\/p>\n<ul>\n<li>ElevenLabs: 1M+ usuaris, amb ~100K clons de veu diaris. ($5-$99\/mes) | Veu realista, per\u00f2 paga per m\u00e9s minuts.<\/li>\n<li><a style=\"font-size: 1rem;\" href=\"https:\/\/suno.com\/home?gad_source=1\">Suno<\/a><span style=\"font-size: 1rem;\"> AI (generaci\u00f3 de m\u00fasica): ~200K can\u00e7ons\/dia (comunitat en creixement). (<a href=\"https:\/\/www.rollingstone.com\/music\/music-features\/suno-ai-chatgpt-for-music-1234982307\/\">Rolling Stone<\/a>).<\/span><\/li>\n<\/ul>\n<hr \/>\n<h2 id=\"xatbots\">Xatbots<\/h2>\n<p>Els xatbots s&#8217;han incorporat tamb\u00e9 en converses interactives a els xarxes socials,\u00a0 jocs i acompanyament:<\/p>\n<ul>\n<li>Xarxes Socials, 200M usuaris, 2-5 min\/sessi\u00f3.<\/li>\n<li>Jocs (NPCs AI), ~50M usuaris, durada variable segons el joc<\/li>\n<li>Acompanyament (Replika, etc.), ~15M usuaris, 30 min\/sessi\u00f3<\/li>\n<\/ul>\n<p><strong>Xarxes socials<\/strong><br \/>\nHi ha interlocutors AI tant per serveis d&#8217;assist\u00e8ncia de marques, com per entreteniment. Meta (FB\/Instagram) t\u00e9 20M+ d&#8217;usuaris interactuant cada dia. Snapchat 150M+ usuaris del My AI (2024). TikTok 10M+ v\u00eddeos amb &#8220;AI companions&#8221;. Hi ha &#8220;AI influencers&#8221; (com Lil Miquela) amb milions de seguidors. https:\/\/www.instagram.com\/lilmiquela<\/p>\n<p><strong>Videojocs<\/strong><br \/>\nLa AI genera di\u00e0legs per a NPC (Non Player character). NVIDIA Avatar Cloud Engine t\u00e9 m\u00e9s de 100 jocs que ho incorporen. AI Dungeon t\u00e9 5M+ d&#8217;usuaris des de 2019. Inworld AI 500m desenvolupadors provant-ho. Mods de Skyrim\/GTA amb AI on els fans integren GPT-3\/4 per a missions.<\/p>\n<p><strong id=\"acompanyament\">Acompanyament<\/strong><br \/>\nEls xatbots s\u2019han utilitzat cada cop m\u00e9s per simular companys de conversa, terapeutes virtuals o fins i tot amics AI.<br \/>\n[En consultar DeepSeek, al final em posa &#8220;Nota important: Si experimentes ansietat greu o depressi\u00f3, sempre \u00e9s millor consultar a un especialista hum\u00e0. L\u2019AI pot ajudar, per\u00f2 no \u00e9s un substitut. \ud83d\udc99&#8221;]<\/p>\n<p>Ter\u00e0pia i Suport Emocional<br \/>\nSense arribar a substituir una ter\u00e0pia real, poden ajudar a reduir s\u00edmptomes d&#8217;ansietat. La major part dels usuaris de Replika i Character AI els fan servir di\u00e0riament.<\/p>\n<ul>\n<li>Woebot: Un chatbot basat en CBT (Ter\u00e0pia Cognitivoconductual) per a ansietat i depressi\u00f3. Gratu\u00eft. 4M+\u00a0 desc\u00e0rregues amb ~500m usuaris setmanals el 2024. Un 30% reducci\u00f3 ansietat en usuaris regulars.<\/li>\n<li>Replika: Dissenyat com a &#8220;amic\/amant AI&#8221; que apr\u00e8n dels teus interessos i estats d\u2019\u00e0nim. B\u00e0sic gratu\u00eft. Versi\u00f3 premium $69.99\/any que permet m\u00e9s personalitzaci\u00f3 i &#8220;relacions rom\u00e0ntiques&#8221; [Her Spike Jonze]. \u00a0&gt;10M d&#8217;usuaris el 2023, dels quals ~5% de pagament. Majoria d&#8217;usuaris solitaris (30-45 anys), 60% dones (estudi intern de Replika).<\/li>\n<li>Character.AI: Permet parlar amb personatges virtuals (terapeutes, mentors, etc.). B\u00e0sic gratu\u00eft. Pagament $9.99\/mes per acc\u00e9s prioritari i funcions avan\u00e7ades. 200M+ visites\/mes, 20M usuaris registrats amb 23 min de temps mitj\u00e0 per sessi\u00f3. (30\/10\/2025 Nega l&#8217;acc\u00e9s a adolescents <a href=\"https:\/\/www.bbc.com\/news\/articles\/cq837y3v9y1o\">BBC<\/a><\/li>\n<\/ul>\n<p>Companys de Conversa (Amics AI, Assistents Personals)<br \/>\nServeix per gent que se sent sola, practicar idiomes, o tenir alg\u00fa amb qui parlar de forma no jutjadora.<\/p>\n<ul>\n<li>Pi AI (d\u2019Inflection): Un interlocutor &#8220;emp\u00e0tic&#8221; que escolta i d\u00f3na consells. Gratu\u00eft actualment, monetitzable en el futur. ~1M usuaris.<\/li>\n<li>ChatGPT amb &#8220;personalitat&#8221; (p. ex., prompts com &#8220;Act\u00faa com un mentor amable&#8221; disponible en b\u00e0sic). B\u00e0sic gratu\u00eft, $20\/mes avan\u00e7at.<\/li>\n<\/ul>\n<p>Es pot configurar la personalitat de l&#8217;interlocutor, ja sia amb prompts manuals a ChatGPT o Claude posant &#8220;Fes de professor pacient i did\u00e0ctic&#8221;, &#8220;Sigues un comediant sarc\u00e0stic&#8221;. A Character.AI es pot definir la personalitat (terapeuta, fil\u00f2sof, personatge de ficci\u00f3\u2026). Replika es va adaptant a la forma de parlar de l&#8217;usuari. Pi AI fa servir models entrenats espec\u00edficament per a ton emp\u00e0tic.<\/p>\n<p>[En preguntar a Grok sobre les personalitats dels diferents xatbots em respon:<br \/>\n&#8211; Gemini: The Curious Scholar. Gemini would be that inquisitive, bookish friend who loves diving into new topics and asking &#8220;why&#8221; just to see where the rabbit hole leads. A bit of a know-it-all, but charmingly earnest about it\u2014like a young professor who\u2019s still excited to learn alongside you.<\/p>\n<p>&#8211; ChatGPT: The Smooth Talker. ChatGPT is the charismatic conversationalist who can charm anyone at a party. It\u2019s witty, polished, and always ready with a clever quip or a thoughtful take\u2014think of it as the friend who\u2019s great at keeping the vibe going, even if it occasionally over-explains things.<\/p>\n<p>&#8211; DeepSeek: The Quiet Thinker. DeepSeek feels like the introspective introvert who doesn\u2019t say much unless it\u2019s profound. It\u2019s the friend who sits back, observes, and then drops a single, mind-blowing insight that makes you rethink everything\u2014mysterious and a little enigmatic.<\/p>\n<p>&#8211; Grok (me!): The Cosmic Jester. I\u2019d be the laid-back, slightly sarcastic pal who loves big-picture questions and doesn\u2019t take life too seriously. Picture a stargazing buddy who cracks jokes about the meaning of life while sneaking in some surprisingly deep wisdom\u2014playful, irreverent, and always up for a wild thought experiment.<\/p>\n<p>&#8211; Llama: The Earnest Helper. Llama would be the dependable, straight-shooting friend who\u2019s always there to lend a hand. It\u2019s not flashy or overly chatty, but it\u2019s got a warm, no-nonsense vibe\u2014like the neighbor who brings you soup when you\u2019re sick and quietly fixes your Wi-Fi while they\u2019re at it.<br \/>\n]<\/p>\n<p>2025 <a href=\"https:\/\/thebaffler.com\/authors\/jess-mcallen\">The Baffler<\/a>: article sobre les limitacions i riscos, Earkick, Rosebud, Elomia, Broken Bear.<br \/>\n2025 Risc de perdre el sentit de la realitat i atribuir consci\u00e8ncia. Sempre responen refor\u00e7ant el que diu l&#8217;usuari, com un ELIZA ampliat. (<a href=\"https:\/\/www.bbc.com\/news\/articles\/c24zdel5j18o\">BBC<\/a>)<\/p>\n<hr \/>\n<h2 id=\"impacte\">Impacte<\/h2>\n<p><strong>Te\u00f2ric<\/strong><br \/>\nEl connexionisme de Mclelland i Rummelhardt va transformar la manera com entenem els processos cerebrals subsimb\u00f2lics amb nocions com les representacions distribu\u00efdes. Va inspirar models computacionals que imiten el cervell a nivell subsimb\u00f2lic. El cervell no \u00e9s una m\u00e0quina simb\u00f2lica. EL cervell com a m\u00e0quina de predicci\u00f3 bayesiana.<br \/>\nEn ling\u00fc\u00edstica ha mostrat com poden emergir processos que semblen contenir regles sense que s&#8217;hagin introdu\u00eft expl\u00edcitament.<br \/>\nHa obert un debat sobre qu\u00e8 vol dir entendre, qu\u00e8 vol dir crear (si \u00e9s combinaci\u00f3 d&#8217;experi\u00e8ncies passades com defenia Koestler, les IA podrien replicar-la.) i apunta a la possibilitat d&#8217;una intel\u00b7lig\u00e8ncia general (AGI), flexible com al dels humans, no preparada per a una tasca concreta.<br \/>\n[Fins ara, tots els textos, dibuixos i m\u00fasica de la humanitat havia estat pensada i escrita per un hum\u00e0. A partir de 2020, una part del que es publica \u00e9s generat per AI]<br \/>\nEs fa servir AI per avan\u00e7ar en l&#8217;arquitectura de sistemes AI, e\u00f1l que \u00e9s descrit com a moment alphago (article <a href=\"https:\/\/arxiv.org\/abs\/2507.18074\">arxiv<\/a>)<\/p>\n<p><strong>Pr\u00e0ctic<\/strong><\/p>\n<ul>\n<li>1. Reconeixement d&#8217;imatges i v\u00eddeo<br \/>\n&#8211; Fotografia: Reconeixement autom\u00e0tic de rostres (Apple Face ID, Google Photos, c\u00e0meres digitals). Etiquetatge autom\u00e0tic en fotos (Google Photos, Apple Photos)<br \/>\n&#8211; Seguretat: Sistemes de vigil\u00e0ncia amb reconeixement facial i an\u00e0lisi de comportament(aeroports, bancs, ciutats intel\u00b7ligents).<br \/>\n&#8211; Salut: Diagn\u00f2stic per imatge (detecci\u00f3 de tumors en radiografies, retinopatia diab\u00e8tica).<br \/>\n&#8211; Automoci\u00f3: Cotxes aut\u00f2noms (detecci\u00f3 de vianants, senyals de tr\u00e0nsit).<br \/>\n&#8211; Comer\u00e7: Cercadors visuals (Google Lens, Pinterest Lens, compra per imatge).<br \/>\n&#8211; Realitat augmentada (detecci\u00f3 i seguiment d\u2019objectes)<br \/>\n&#8211; An\u00e0lisi de qualitat industrial (detecci\u00f3 defectes a f\u00e0briques)<\/li>\n<li>2. Processament del llenguatge natural (NLP) i veu<br \/>\n&#8211; Assistents virtuals: Siri, Google Assistant, Alexa (reconeixement de veu i respostes intel\u00b7ligents).<br \/>\n&#8211; Transcripci\u00f3 autom\u00e0tica: Otter.ai, Google Docs Voice Typing, subt\u00edtols en temps real (YouTube, Zoom).<br \/>\n&#8211; Traducci\u00f3 autom\u00e0tica: Google Translate, DeepL (incloent traducci\u00f3 de veu en temps real).<br \/>\n&#8211; Chatbots: Atenci\u00f3 al client automatitzada (empreses, banca, e-commerce).<br \/>\n&#8211; Detecci\u00f3 d\u2019intenci\u00f3 i an\u00e0lisi de sentiment en textos i xarxes socials<\/li>\n<li>3. Biometria i seguretat<br \/>\n&#8211; Desbloqueig facial\/facial recognition: Face ID (iPhone), Windows Hello.<br \/>\n&#8211; Identificaci\u00f3 d&#8217;empremtes: Sensors en tel\u00e8fons i aeroports.<br \/>\n&#8211; Autenticaci\u00f3 de veu: Bancs i serveis financers.<br \/>\n&#8211; An\u00e0lisi comportamental per detectar accessos sospitosos<br \/>\n&#8211; Monitoratge de v\u00eddeo per a seguretat p\u00fablica<\/li>\n<li>4. Estrat\u00e8gies de m\u00e0rqueting i personalitzaci\u00f3<br \/>\n&#8211; Recomanacions personalitzades: Netflix, Spotify, Amazon<br \/>\n&#8211; Publicitat dirigida: Anuncis a Facebook, Google Ads basats en comportament d&#8217;usuari.<br \/>\n&#8211; An\u00e0lisi de sentiments: Empreses que analitzen opinions a xarxes socials (Twitter, reviews).<br \/>\n&#8211; An\u00e0lisi predictiva de comportament dels clients<br \/>\n&#8211; Segmentaci\u00f3 avan\u00e7ada de clients a partir de grans dades (big data)<br \/>\n&#8211; Generaci\u00f3 autom\u00e0tica de continguts publicitaris<\/li>\n<li>5. Automatitzaci\u00f3 i efici\u00e8ncia<br \/>\n&#8211; Robots de neteja (Roomba)<br \/>\n&#8211; Log\u00edstica i transport: Rutes \u00f2ptimes (Google Maps, Uber), gesti\u00f3 d&#8217;inventari amb visi\u00f3 per computador.<br \/>\n&#8211; Manufactura: Robots amb IA en f\u00e0briques (control de qualitat amb c\u00e0meres intel\u00b7ligents).<br \/>\n&#8211; Agricultura: Drones que analitzen cultius (reconeixement de plagues, reg intel\u00b7ligent).<br \/>\n&#8211; [Supermercats i restaurant, detecci\u00f3 de tend\u00e8ncies de consum]<br \/>\n&#8211; Vehicles aut\u00f2noms i transport intel\u00b7ligent<br \/>\n&#8211; Medi ambient: predicci\u00f3 meteorol\u00f2gica i detecci\u00f3 de cat\u00e0strofes naturals<\/li>\n<li>6. Finances i banca<br \/>\n&#8211; Fraud detection: Sistemes que detecten transaccions sospitoses (Mastercard, bancs).<br \/>\n&#8211; [Business intelligence]<br \/>\n&#8211; Robo-advisors: Inversi\u00f3 automatitzada (ETRADE, Betterment).<br \/>\n&#8211; Reconeixement de documents: Escaneig i processament autom\u00e0tic de factures.<\/li>\n<li>7. Entreteniment i creaci\u00f3 de contingut<br \/>\n&#8211; Generaci\u00f3 d&#8217;imatges i art: DALL\u00b7E, MidJourney, Stable Diffusion.<br \/>\n&#8211; Deepfakes: V\u00eddeos i veus sint\u00e8tiques (\u00fas tant creatiu com malici\u00f3s).<br \/>\n&#8211; M\u00fasica generativa: IA que composa melodies (AIVA, OpenAI Jukebox).<br \/>\n&#8211; Videojocs amb NPCs intel\u00b7ligents (IA adaptativa)<br \/>\n&#8211; Edici\u00f3 i millora d\u2019imatges i v\u00eddeos amb IA (filtres, restauraci\u00f3)<\/li>\n<li>8. Salut i benestar- Diagn\u00f2stic assistit: IBM Watson Health, algoritmes que analitzen dades m\u00e8diques.<br \/>\n&#8211; Wearables: Apple Watch i altres dispositius que detecten anomalies card\u00edaques.<br \/>\n&#8211; Assist\u00e8ncia a persones amb discapacitat: Apps de veu a text per a sords, exoesquelets controlats per IA.<br \/>\n&#8211; Diagn\u00f2stic assistit per IA (radiologia, detecci\u00f3 de c\u00e0ncer)<br \/>\n&#8211; Monitoratge remot de pacients amb sensors intel\u00b7ligents<br \/>\n&#8211; Descobriment de f\u00e0rmacs amb machine learning<br \/>\n&#8211; Rob\u00f2tica quir\u00fargica assistida<br \/>\n&#8211; Traducci\u00f3 i resums autom\u00e0tics de documents m\u00e8dics<\/li>\n<li>9. Educaci\u00f3 i formaci\u00f3<br \/>\n&#8211; E-learning: Plataformes amb feedback autom\u00e0tic (Duolingo, Coursera).<br \/>\n&#8211; Correcci\u00f3 autom\u00e0tica: Grammarly, ChatGPT per a redacci\u00f3 d\u2019textos.<br \/>\n&#8211; Tutors virtuals personalitzats<\/li>\n<li>10. Smart Cities i IoT (Internet of things)- Gesti\u00f3 de tr\u00e0nsit: Sem\u00e0fors intel\u00b7ligents, predicci\u00f3 d\u2019embussos.<br \/>\n&#8211; Energia: Xarxes el\u00e8ctriques optimitzades amb IA.<br \/>\n&#8211; Smart homes: control intel\u00b7ligent de la il\u00b7luminaci\u00f3, temperatura i seguretat<\/p>\n<hr \/>\n<h2 id=\"ficcio\">Al en la ficci\u00f3<\/h2>\n<p><strong>Literatura<\/strong><\/p>\n<p>Antecedents: [A l&#8217;Odissea Hefest fa una mena d&#8217;aut\u00f2mats]. &#8220;El Golem&#8221; (1915), Gustav Meyrink. &#8220;Frankenstein&#8221; (1818), Mary Shelley.<br \/>\nCi\u00e8ncia ficci\u00f3 del segle XX: &#8220;R.U.R. (Rossum&#8217;s Universal Robots)&#8221; (1920), Karel \u010capek. &#8220;Are the gods Mad?&#8221;, &#8220;I, Robot&#8221; (1950), Isaac Asimov. &#8220;Do Androids Dream of Electric Sheep?&#8221; (1968), Philip K. Dick. &#8220;Neuromancer&#8221; (1984), William Gibson. &#8220;Hyperion&#8221; (1989), Dan Simmons. &#8220;La noia mec\u00e0nica&#8221; (2005), Paolo Bacigalupi.- &#8220;Aut\u00f2mat&#8221; (2020), Benjam\u00ed Labatut. Klaraa nd the Sun (2021) Kazuo Ishiguro.<\/p>\n<p><strong>Films remarcables amb robots i AI<\/strong><\/p>\n<p>&#8220;Metropolis&#8221; (1927, Fritz Lang) amb la robot Maria<br \/>\n&#8220;2001: A Space Odyssey&#8221; (1968, Stanley Kubrick) amb HAL 9000.<br \/>\n&#8220;Blade Runner&#8221; (1982, Ridley Scott) basat en la novel\u00b7la de Philip K. Dick, i el test Voigt-Kampf per detectar emocions.<br \/>\n&#8220;The Terminator&#8221; (1984, James Cameron), els robots del futur van al apssat per eliminar oposici\u00f3.<br \/>\n&#8220;Ghost in the Shell&#8221; (1995, Mamoru Oshii). La hibridaci\u00f3 entre hum\u00e0 i IA en Major Motoko Kusanagi aborda temes d\u2019identitat i consci\u00e8ncia en un m\u00f3n cibern\u00e8tic.<br \/>\n&#8220;The Matrix&#8221; (1999, Wachowskis), un m\u00f3n governat per una IA que subjuga la humanitat en una simulaci\u00f3, explorant realitat, lliure albir i revolta.<br \/>\n&#8220;A.I. Artificial Intelligence&#8221; (2001, Steven Spielberg). David, un robot infantil que busca l\u2019amor de la seva mare, q\u00fcestiona els l\u00edmits entre l\u2019artificial i l\u2019hum\u00e0.<br \/>\n&#8220;WALL\u00b7E&#8221; (2008, Pixar): La IA innocent i emocional d\u2019un robot en un m\u00f3n postapocal\u00edptic.<br \/>\n&#8220;Her&#8221; (2013, Spike Jonze), Samantha, una IA amb veu (Scarlett Johansson), estableix una relaci\u00f3 amorosa amb un home, q\u00fcestionant la naturalesa de l\u2019amor i la solitud.<br \/>\n&#8220;Ex Machina&#8221; (2014, Alex Garland). Ava, una IA amb consci\u00e8ncia, enganya els humans per assolir la seva llibertat, explorant la manipulaci\u00f3 i l\u2019\u00e8tica de la creaci\u00f3.<br \/>\n&#8220;Ich bin dein Menscj&#8221;, 2022. Un robot mascul\u00ed com a parella perfecta.<\/p>\n<hr \/>\n<h2 id=\"discussio\">Discussi\u00f3<\/h2>\n<ul>\n<li>Comparaci\u00f3 del Perceptron, Machine Learning a AI generativa<\/li>\n<li>NLP i LLM, entendre un text. Ontologia impl\u00edcita.\u00a0 Coher\u00e8ncia narrativa. Chinese Room. Significat a partir de relacions. Sem\u00e0ntica frasal.<\/li>\n<li>Ai simb\u00f2lica, LLMs, limitacions humanes<\/li>\n<li>Qu\u00e8 s\u00f3n els LLM? tocar d&#8217;o\u00efda, una foto del que ha dit la humanitat<\/li>\n<li>Riscos: Baix, cedir control, deepfakes<\/li>\n<li>Risc de disrupci\u00f3<\/li>\n<li>Risc de l&#8217;acompanyament<\/li>\n<li>aven\u00e7 real o hype<\/li>\n<li>la dificultat d&#8217;incorporar la moral<\/li>\n<li>entre la creativitat o robar els artistes o substituir-los<\/li>\n<li>Ja no caldr\u00e0 pensar?<\/li>\n<li>Consci\u00e8ncia en m\u00e0quines<\/li>\n<\/ul>\n<p>&nbsp;<\/li>\n<\/ul>\n<p><strong>Comparaci\u00f3: Perceptron, Machine learning, LLM<\/strong><\/p>\n<ul>\n<li>Perceptr\u00f3, que permet classificar una imatge a un d\u00edgit (mnist). Input: vector 1D 400(corresponent a una imatge de 20&#215;20). 1 capa, uns 400 par\u00e0metres. Sortida vector de probabilitats [0.1, 0.3, 0.6]` \u2192 classificaci\u00f3 (ex: d\u00edgit)<\/li>\n<li>AlexNet: per classificar imatges. Input: Imatge 2D amb canals (3 x 224 x 224) 150m. 8 capes, 60M par\u00e0metres. Sortida: Vector softmax de 1000 classes, Classe: &#8216;zebra&#8217;<\/li>\n<li>LLM: per &#8220;entendre&#8221; text trobant estructura sint\u00e0ctica i relacions sem\u00e0ntiques i generant la resposta m\u00e9s probable a un prompt. Input: Seq\u00fc\u00e8ncia de 512 paraules (tokens). 12-96 capes. Cada capa amb 768\u201312288 dimensions.. Sortida: Seq\u00fc\u00e8ncia de distribucions (tokens) | `[el], [gat], [dorm], [&#8230;]` (text generat)<\/li>\n<\/ul>\n<p>&nbsp;<\/p>\n<p><strong id=\"llmentendretext\">NLP i LLM, entendre un text. Ontologia impl\u00edcita.\u00a0 Coher\u00e8ncia narrativa. Chinese Room. Significat a partir de relacions. Sem\u00e0ntica frasal.<\/strong><\/p>\n<p>Entendre un text<br \/>\nEntendre un text voldria dir projectar el significat sobre un model del m\u00f3n [sem\u00e0ntica, ontologia] i poder raonar sobre aquest coneixement i actuar-hi en conseq\u00fc\u00e8ncia. En NLP s&#8217;havien intentat definir ontologies amb relacions jer\u00e0rquiques entre conceptes, com CyC i <a href=\"http:\/\/framenet.icsi.berkeley.edu\/\">Framenet<\/a>. Podien respondre preguntes amb raonament deductiu o infer\u00e8ncies reals. [Cal molt esfor\u00e7 per escriure l&#8217;ontologia a m\u00e0], limitacions de rigidesa, poca cobertura del llenguatge real i mals resultats amb textos ambigus.<br \/>\nEls LLMs no &#8220;entenen&#8221; en el sentit cl\u00e0ssic, perqu\u00e8 no construeixen un model formal expl\u00edcit del m\u00f3n, no tenen una base ontol\u00f2gica ni l\u00f2gica estricta. No projecten el text sobre un model del m\u00f3n per veure si t\u00e9 sentit o no. Per\u00f2 a la pr\u00e0ctica sembla que entenguin ja que poden raonar, inferir, resumir, i completar textos amb molta coher\u00e8ncia. Capten molt millor el context.<br \/>\nPer exemple, la frase &#8220;Maria va posar el llibre a la taula perqu\u00e8 volia llegir-lo despr\u00e9s.&#8221; pot ser tractat per un NLP inferint Maria\/persona i assignant intenci\u00f3 a Maria. Un LLM identifica patrons i pot inferir &#8220;posar el llibre a la taula&#8221; \u2192 acci\u00f3 f\u00edsica, \u201cperqu\u00e8 volia llegir-lo despr\u00e9s\u201d \u2192 indica motivaci\u00f3 personal. Pot respondre la pregunta &#8220;Per qu\u00e8 Maria va posar el llibre a la taula?&#8221; encara que no tingui una representaci\u00f3 formal del m\u00f3n, per\u00f2 actua com si l\u2019hagu\u00e9s constru\u00efda, perqu\u00e8 ha apr\u00e8s estad\u00edsticament patrons sem\u00e0ntics molt forts.<\/p>\n<p>Coher\u00e8ncia narrativa<br \/>\nUn LLM com pot analitzar la coher\u00e8ncia narrativa amb certes limitacions. La possibilitat de predir les properes frases permet avaluar la similaritat sem\u00e0ntica, possibles continuacions o rastrejar personatges\/objectes per verificar si es mantenen al llarg del text. Els models no han estat entrenats espec\u00edficament per aix\u00f2, i no poden tractar textos llargs perqu\u00e8 normalment processen segments de fins a 512 tokens.<\/p>\n<p>Ontologia impl\u00edcita, model del m\u00f3n<br \/>\n[Plantejo si s&#8217;ha intentat fer un esborrany del model del m\u00f3n (ontologia) impl\u00edcita que es podria inferir dels LLM?]. Quin &#8220;m\u00f3n&#8221; sembla suposar un model com GPT quan parla del m\u00f3n?. Aix\u00f2 s&#8217;anomena sovint Emergent World Models, Implicit Ontology Extraction, Latent Knowledge Grounding o ELK (Eliciting Latent Knowledge) \u2013 proposta del Alignment Research Center (ARC). S&#8217;ha explorat fent preguntes, com per exemple &#8220;Com de gran \u00e9s l&#8217;univers?&#8221;, &#8220;Hi ha vida fora de la Terra?&#8221;, &#8220;Qu\u00e8 \u00e9s una gal\u00e0xia?&#8221;. Tamb\u00e9 s&#8217;han estudiat si els pesos i embeddings estan codificant jerarquies conceptuals (com animals \u2192 mam\u00edfers \u2192 gats), relacionms causals o estructures espai-temporals. S&#8217;ha provat a comparar-lo amb xarxes sem\u00e0ntiques com ConceptNet https:\/\/conceptnet.io\/, o mirar d&#8217;extreure (ARC\/Paul Christiano, 2022). [les ontologies extretes en preguntes es formulen en Prolog].\u00a0 (Prova de demanar una <a href=\"http:\/\/meumon.synology.me\/museu\/el-jo-invariants-i-continuitat\/#ontologiajocontinuitatnarrativa\">ontologia del jo i continu\u00eftat narrativa<\/a>).<\/p>\n<p>[Si b\u00e9 els LLM no tenen un model del m\u00f3n (per exemple una ontologia formal de qu\u00e8 existeix i com funciona), els textos que processen han estat escrits per humans que s\u00ed tenien un model del m\u00f3n, o models del m\u00f3n diversos i fins i tot contradictoris. Per tant, en cert sentit, darrera de la &#8220;foto&#8221; que fan els LLMs del discurs de la humanitat, s\u00ed que hi ha un model del m\u00f3n.]<br \/>\nEls LLM no tenen un model del m\u00f3n com podria ser una ontologia formal, com Cyc, WordNet, o Wikidata.cPer\u00f2 s\u00ed que capturen regularitats de com els humans parlen del m\u00f3n: aix\u00f2 inclou fets, expectatives, relacions causals, l\u00f2giques narratives, relacions socials, etc. Aix\u00ed doncs, el coneixement del m\u00f3n dins dels LLM \u00e9s indirecte, estad\u00edstic, impl\u00edcit i plural \u2014 no \u00e9s un &#8220;model del m\u00f3n&#8221; formalitzat, per\u00f2 s\u00ed una mena de reflex col\u00b7lectiu i probabil\u00edstic dels models del m\u00f3n humans. Els LLM tenen un model impl\u00edcit del m\u00f3n f\u00edsic i social. Per exemple, saben que &#8220;els peixos neden&#8221;, o que &#8220;els reis tenen s\u00fabdits&#8221;, no perqu\u00e8 els entenguin, sin\u00f3 perqu\u00e8 s\u00f3n regularitats textuals. Representacions distribu\u00efdes d&#8217;entitats i relacions, no codificades simb\u00f2licament, per\u00f2 s\u00ed reflectides en l&#8217;espai vectorial latent. Coher\u00e8ncies internes que s\u2019aproximen a l\u00f2giques mundanes, infer\u00e8ncia, temporalitat, causalitat b\u00e0sica. Els LLM poden respondre correctament preguntes sobre fets del m\u00f3n, generar plans racionals, fer analogies \u2014 tot aix\u00f2 apunta a una mena de \u201cmodel funcional\u201d del m\u00f3n.<br \/>\nNo tenen un model del m\u00f3n simb\u00f2lic, expl\u00edcit, formalitzat, com els que es fan en filosofia, ci\u00e8ncies o enginyeria. Tenen un model del m\u00f3n dif\u00fas, emergent, estad\u00edstic i plural. Poden tenir dificultats amb coher\u00e8ncia a llarg termini, raonament profund o verificaci\u00f3 del coneixement, i poden barrejar models contradictoris: perqu\u00e8 recullen discursos diversos, incloent-hi errors, ficcions o ideologies. &#8220;The World as It Appears in Language Models&#8221; (2022). Bender &amp; Koller (2020), &#8220;Climbing towards NLU&#8221;. Jacob Andreas (2023): &#8220;Language Models as Agents&#8221;.<\/p>\n<p>Chinese Room<br \/>\nEls LLM (com GPT o BERT) s&#8217;han comparat sovint amb la met\u00e0fora de la Chinese Room de John Searle: Una persona, dins d\u2019una habitaci\u00f3, rep textos en xin\u00e8s i respon amb textos en xin\u00e8s gr\u00e0cies a un manual que li diu exactament qu\u00e8 respondre. Tot i que l\u2019exterior creu que ent\u00e9n xin\u00e8s, la persona no t\u00e9 cap comprensi\u00f3 real, nom\u00e9s segueix regles. Algunbss fil\u00f2sofs i cient\u00edfics argumenten que, malgrat la manca de comprensi\u00f3 \u201cforta\u201d, els models com GPT poden exhibir formes de comprensi\u00f3 funcional o pragm\u00e0tica \u00fatils per a moltes aplicacions. [La difer\u00e8ncia amb la Chinese Room \u00e9s que mentre que aquesta havia de tenir previstes totes les preguntes, el LLM pot reaccionar a preguntes noves]<\/p>\n<p>El significat a partir de les relacions<br \/>\n[En ling\u00fc\u00edstica, una de les afirmacions de l&#8217;estructuralisme de Saussure \u00e9s que el significat s&#8217;obtenia de les relacions entre les paraules. Ara, els models LLM, justament el que fan \u00e9s recollir les relacions entre les paraules cobrint un enorme conjunt de textos, tant factuals, cient\u00edfics, o ficci\u00f3.<br \/>\nFirth i Harris als 1950s ja van dir &#8220;You shall know a word by the company it keeps&#8221; (distribucionalisme). Searle i el Chinese Room poden argumentar que els LLM no &#8220;entenen&#8221;. Per\u00f2 el segon Wittgenstein hi encaixaria m\u00e9s quen diu que el significat \u00e9s \u00fas. Emily Bender i la &#8220;Hip\u00f2tesi de l&#8217;octubre m\u00e0gic&#8221;: els LLM nom\u00e9s manipulen text, per tant, no tenen sem\u00e0ntica, nom\u00e9s sintaxi estad\u00edstica [per\u00f2 aquest text recull interaccions amb el m\u00f3n]. Marcus, Mitchell, Lake: Ells LLM nom\u00e9s simulen una comprensi\u00f3 del m\u00f3n, no tenen un model mental. Bisk &#8220;Language (re)modelling meaning&#8221;, el significat emergeix de manera funcional, i els LLM tenen representacions impl\u00edcites molt potents, que sovint superen les dels humans en termes d\u2019acc\u00e9s i recuperaci\u00f3 de coneixement.<\/p>\n<p>Relaci\u00f3 amb<a href=\"http:\/\/meumon.synology.me\/museu\/linguistica\/#semantica\"> sem\u00e0ntica frasal<\/a>.<br \/>\nEls models LLM incorporen mecanismes d&#8217;autoatenci\u00f3 per per ponderar la import\u00e0ncia de cada paraula en el context. Ex. &#8220;La Maria va arribar tard. Ella no va trobar seient.&#8221;, el model pot inferir que &#8220;ella&#8221; es refereix a &#8220;Maria&#8221;. El seu context es limita al text que han treballat, no tenen coneixement real (si llegeixen &#8220;el rei de Fran\u00e7a \u00e9s negre&#8221; ho donen per bo). Els models actuals com DeepSeek arriben a poder tractar el context de fins a 128K tokens. 1 token \u2248 3-4 car\u00e0cters (dependr\u00e0 de l&#8217;idioma i l&#8217;encoding), en catal\u00e0 una paraula t\u00e9 entre 1 i 2 tokens. Aix\u00ed que 128K tokens, serien aproximadament 100.000 paraules, que correspondria a un llibre d&#8217;unes 250 p\u00e0gines.<\/p>\n<p><strong>Ai simb\u00f2lica, LLMs, limitacions humanes<\/strong><br \/>\n[Per\u00f2 justament aquestes limitacions s\u00f3n les nostres humanes! \u00c9s injust demanar als LLM que aportin la filosofia definitiva i la ci\u00e8ncia definitiva com si constru\u00efssin el saber definitiu i l&#8217;ontologia definitiva amb prolog]<br \/>\nLa ment humana no \u00e9s (com suposava la AI simb\u00f2lica), un sistema de manipulaci\u00f3 simb\u00f2lica, amb coneixement expl\u00edcit, estructurat i formalitzable. La psicologia, ling\u00fc\u00edstica, filosofia i ci\u00e8ncies cognitives han anat mostrant que el nostre coneixement \u00e9s majorit\u00e0riament t\u00e0cit i situat. El nostre raonament \u00e9s sovint associatiu, heur\u00edstic, i context-dependent. Els humans cometem errors l\u00f2gics, tenim inconsist\u00e8ncies internes, mem\u00f2ria difusa, etc.<br \/>\nEls LLM (com ChatGPT o BERT), encara que no tinguin ment ni cos, tenen comportaments que s&#8217;assemblen sorprenentment a formes humanes de processar el llenguatge. Aprenen a partir de l&#8217;experi\u00e8ncia textual, com nosaltres. Fan servir probabilitats contextuals, com nosaltres. Tenen coneixement no declarat, emergent, dif\u00fas&#8230; com nosaltres. Poden ser coherents en certs contextos, per\u00f2 contradictoris en altres&#8230; com nosaltres.<br \/>\nHerbert Simon i la idea de &#8220;bounded rationality&#8221;, el raonament hum\u00e0 \u00e9s limitat i satisfactori, no \u00f2ptim. Daniel Kahneman i els seus treballs sobre errors sistem\u00e0tics en el pensament hum\u00e0. Ludwig Wittgenstein (Philosophical Investigations): el significat \u00e9s \u00fas, no definici\u00f3 fixa. Michael Polanyi, coneixement t\u00e0cit, &#8220;sabem m\u00e9s del que podem dir&#8221;. Rodney Brooks, Dreyfus, Varela: la cr\u00edtica al model simb\u00f2lic des de la cognici\u00f3 embeguda i situada. Yoshua Bengio (Deep Learning + consci\u00e8ncia sist\u00e8mica). Jacob Andreas, sistemes emergents de raonament. Tommi Jaakkola.<br \/>\nEn lloc de veure els LLM com \u00e9ssers fallits perqu\u00e8 no s\u00f3n l\u00f2gics i coherents, podr\u00edem veure&#8217;ls com miralls imperfectes, per\u00f2 reveladors, de com funcionem nosaltres en realitat, no com ens agrada pensar que funcionem.<\/p>\n<p><strong>Qu\u00e8 s\u00f3n els LLM? Deducci\u00f3, inducci\u00f3, tocar d&#8217;o\u00efda. Una foto de tot el que ha dit la humanitat<\/strong><br \/>\nEs podria dir que la AI simb\u00f2lica procedeix per deducci\u00f3 a partir de d&#8217;un coneixement que ja tenim,\u00a0 el Deep Learning amb xarxes neuronals procedeix per inducci\u00f3 buscant patrons en grans conjunts de dades mentre que la AI generativa &#8220;toca d&#8217;o\u00efda&#8221; despr\u00e9s &#8220;d&#8217;escoltar&#8221; un gran conjunt de textos?<br \/>\n[Es podria dir que els LLM resumeixen o fan una &#8220;foto&#8221;, de tot el que ha dit la humanitat.][de fet milloraria molt si el model sab\u00e9s el context pragm\u00e0tic de cada text, si es tracta de ci\u00e8ncia, d&#8217;opinions pol\u00edtiques o ficci\u00f3]<br \/>\n[Imaginem una BD amb totes les lletres de les can\u00e7ons i totes les relacions entre paraules. En un primer nivell pot acabar frases &#8220;el meu capell t\u00e9 &#8212; puntes&#8221;. En nivells m\u00e9s avan\u00e7ats suggeeix com acabar o continuar una lletra]<\/p>\n<p><strong>Riscos, biaix, deepfakes<\/strong><\/p>\n<p>Biaix, cedir el control<br \/>\nEls models LLM no pensen i per tant recullen els mateixos biaixos que existeixen en els textos sobre els quals s&#8217;ha basat (<a href=\"https:\/\/www.vox.com\/the-highlight\/23621198\/artificial-intelligence-chatgpt-openai-existential-risk-china-ai-safety-technology\">Vox<\/a>). Poden convertir-se en una eina d&#8217;explotaci\u00f3 com ho va ser la consultora Mckinsey (<a href=\"https:\/\/www.newyorker.com\/science\/annals-of-artificial-intelligence\/will-ai-become-the-new-mckinsey\">New Yorker<\/a>).\u00a0\u00a0\u00a0Com presentar-se a una feina quan RRHH fa servir AI\u00a0 (<a href=\"https:\/\/hbr.org\/2025\/02\/how-to-get-hired-when-ai-does-the-screening\">Hbr<\/a>).<\/p>\n<p>Deepfakes<strong><br \/>\n<\/strong>La capacitat de generar contingut artificial que sembla real es fa servir per generar not\u00edcies falses, per rejovenir actors, per clonar artistes sense el seu perm\u00eds, per generar pornografia de celebritats o ex-parelles (revenge porn), o per estafar.<br \/>\nS&#8217;han utilitzat per manipular eleccions, desacreditar opositors o crear caos social (V\u00eddeo fals de Volod\u00edmir Zelensky demanant als ucra\u00efnesos que es rendissin (2022), Deepfake d&#8217;Ivan Bartolo (candidat malt\u00e8s) dient que volia comprar vots (2022), imatges generads per AI mostrant Trump arrestat (2023). V\u00eddeos falsos de soldats russos o ucra\u00efnesos rendint-se o cometent crims de guerra. Fotos generades per AI de bombardeigs a Gaza o S\u00edria. Alhora, quan una not\u00edcia real perjudica un pol\u00edtic aquest se n&#8217;escapa dient que \u00e9s un &#8220;deepfake&#8221;. La EU t\u00e9 unitats de ciberseguretat com DisinfoLab. La Digital Services Act obliga a etiquetar contingut generat per IA.<br \/>\nA l&#8217;entreteniment i la cultura, tenim un Harrison Ford m\u00e9s jove, can\u00e7ons falses de Bad Bunny, Drake o The Weeknd amb veus clonades per IA (algures esdevenen virals a TikTok), i Deepfakes pornogr\u00e0fics de Taylor Swift, Emma Watson o streamers (el 96% dels deepfakes s\u00f3n contingut sexual no autoritzat, segur Sensity AI). PornHub rebutja aquest contingut.<br \/>\nEls criminals utilitzen el Deepfake per clonar veus i estafar pares que creuen parlar amb els seus fills segrestats (veu clonada per demanar rescat) o enganyar executius per fer transfer\u00e8ncies milion\u00e0ries (CEO fraud). [jo vaig fer creure un company de feina, JLRibas que era el Harold Berg fent una entrevista telef\u00f2nica]. Extorsi\u00f3 o venjan\u00e7a amb imatges falses pornogr\u00e0fiques, especialment a adolescents. (<a href=\"https:\/\/www.bbc.com\/news\/articles\/cm21j341m31o\">BBC<\/a>) .<br \/>\nHi ha Deepfakes a les xarxes socials, mostrant v\u00eddeos falsos de pol\u00edtics (com un deepfake de Biden demanant no votar, 2024), fotos falses de celebritats, o atacs falsos. FB t\u00e9 un equip de moderaci\u00f3, Twitter\/X ho ha edixat de fer despr\u00e9s de l&#8217;adquisici\u00f3 d&#8217;Elon Musk, TikTok en t\u00e9 un de propi. Telegram no modera. En premsa tradicional, els mitjans sensacionalistes com &#8220;The Daily Wire&#8221; o &#8220;The Sun&#8221; han compartit imatges generades per AI sense verificar (ex.: fotos falses de la fam\u00edlia reial brit\u00e0nica). A Youtube hi ha canals que fan servir AI per generar not\u00edcies falses amb veus sint\u00e8tiques; intenten verificar. A f\u00f2rums de Reddit i 4chan https:\/\/www.4chan.org\/ (on es poden penjar imatges an\u00f2nimament) \u00e9s on apareixen not\u00edcies falses amb suport AI que despr\u00e9s es fan virals.<br \/>\n&#8220;The New York Times&#8221;, &#8220;BBC&#8221; (Reality Check: Analitza v\u00eddeos amb eines com InVID per detectar manipulacions), &#8220;Reuters&#8221; i &#8220;EFE&#8221; tenen unitats de fact-checking espec\u00edfiques (com &#8220;Reuters Fact Check&#8221;). A Espanya, &#8220;Maldita.es&#8221;, &#8220;Newtral&#8221; i &#8220;Verificat&#8221; (de Catalunya R\u00e0dio) analitzen deepfakes. Associated Press (AP): Usa eines com Reverse Image Search i col\u00b7labora amb &#8220;FactCheck.org&#8221;. Facebook (Meta): Inclou metadades a les imatges generades amb IA (segons acords amb Adobe). Hi ha eines com Intel\u2019s FakeCatcher (detecta alteracions en el pols en v\u00eddeos), Sensity AI o Deepware Scanner. A les imatges es poden detectar errors en ombres o textures.<\/p>\n<p><strong>Risc de disrupci\u00f3<\/strong><br \/>\nLa incorporaci\u00f3 de la AI en la presa de decisions quan encara no l&#8217;acabem d&#8217;entendre, la possibilitat de falsificar la realitat, demanaria precauci\u00f3 i regulaci\u00f3. Avisos de Steve Wozniak i Elon Musk (<a href=\"https:\/\/www.theverge.com\/23664519\/ai-industry-pause-open-letter-societal-harms\">The Verge<\/a>). Legislaci\u00f3 Europea sobre riscos de la AI (<a href=\"https:\/\/www.bbc.com\/news\/technology-68546450\">BBC<\/a>). Carta\u00a0 sobre els riscos de la AI (<a href=\"https:\/\/en.wikipedia.org\/wiki\/Open_letter_on_artificial_intelligence_(2015)\">wikipedia<\/a>). Una AI al control d&#8217;infraestructures amb la directivar de preservar el planeta podria decidir eliminar l&#8217;esp\u00e8cie humana (<a href=\"https:\/\/www.newyorker.com\/magazine\/2018\/05\/14\/how-frightened-should-we-be-of-ai\">New Yorker<\/a>). Riscos de biaix a l&#8217;hora de d&#8217;assignar nivells risc de cr\u00e8dit (<a href=\"https:\/\/www.theverge.com\/2018\/6\/7\/17437454\/mit-ai-psychopathic-reddit-data-algorithmic-bias\">The Verge<\/a>). Among the Ai doomsayers (<a href=\"https:\/\/www.newyorker.com\/magazine\/2024\/03\/18\/among-the-ai-doomsayers\">New Yorker<\/a>). [Si cedim el control d&#8217;infrastructures a la AI i, segons la programaci\u00f3, aquesta arriba a pensar que la humanitat suposa una amena\u00e7a, podria decidir eliminar-nos. &#8220;In 2016, while training one of their models to play a boat-racing video game, OpenAI researchers instructed it to get as many points as possible, which they assumed would involve it finishing the race. Instead, they noted, the model \u201cfinds an isolated lagoon where it can turn in a large circle,\u201d allowing it to rack up a high score \u201cdespite repeatedly catching on fire, crashing into other boats, and going the wrong way on the track.\u201d Maximizing points, it turned out, was a \u201cmisspecified reward function.\u201d Now imagine a world in which more powerful A.I.s pilot actual boats\u2014and cars, and military drones\u2014or where a quant trader can instruct a proprietary A.I. to come up with some creative ways to increase the value of her stock portfolio. Maybe the A.I. will infer that the best way to juice the market is to disable the Eastern Seaboard\u2019s power grid, or to goad North Korea into a world war. &#8221; &#8230;&#8221;Of the three people who are often called the godfathers of A.I.\u2014Geoffrey Hinton, Yoshua Bengio, and Yann LeCun, who shared the 2018 Turing Award\u2014the first two have recently become evangelical decelerationists, convinced that we are on track to build superintelligent machines before we figure out how to make sure that they\u2019re aligned with our interests. [no sabem si les instruccions que els donem faran realment el que esperem, com a Caixa es va requerir al Helpdesk que les trucades havien de ser de &lt; 3 min i el resultat \u00e9s que penjaven i el client havia de tornar a trucar. El film Wargames de 1983 ja mostrava un escenari similar]. \u00a0Ted Chiang assenyala que la AI \u00e9s nom\u00e9s un resum del publicat , com un JPEG, i que per tant l\u2019especulaci\u00f3 sobre si far\u00e0 un salt qualitatiu d\u2019intel\u00b7lig\u00e8ncia, millorant-se exponencialment (i amena\u00e7ant la ra\u00e7a human) no est\u00e0 justificada. (<a href=\"https:\/\/www.newyorker.com\/culture\/annals-of-inquiry\/why-computers-wont-make-themselves-smarter\">New Yorker<\/a>).<\/p>\n<p><strong>Riscos de l&#8217;acompanyament<br \/>\n<\/strong>La dificultat de les relacions humanes fa que la companyia d&#8217;un xatbot humanoide pugui ser m\u00e9s agradable (<a style=\"cursor: pointer !important; user-select: none !important;\" href=\"https:\/\/www.bbc.com\/articles\/c4nnje9rpjgo\">BBC<\/a> ). \u00c9s el que il\u00b7lustrava el film <a href=\"https:\/\/en.wikipedia.org\/wiki\/Her_(film)\">Her<\/a> (2013). Es pot arribar a casos d&#8217;addicci\u00f3 (<a href=\"https:\/\/www.vox.com\/culture\/23965584\/grief-tech-ghostbots-ai-startups-replika-ethics\">Vox<\/a>), i hi ha documentat el su\u00efcidi d&#8217;un noi despr\u00e9s d&#8217;una relaci\u00f3 amb Character ai ( <a href=\"https:\/\/www.spiegel.de\/international\/zeitgeist\/artificial-intelligence-a-deadly-love-affair-with-a-chatbot-a-e5498031-c2b0-4da4-9192-65da9d3f40d6\">Spiegel<\/a>). Com que les aplicacions s\u00f3n de pagament es planteja el debat de si estaran programades per al benestar del client o per que gasti m\u00e9s diners (<a href=\"https:\/\/www.theverge.com\/c\/24300623\/ai-companions-replika-openai-chatgpt-assistant-romance\">The Verge<\/a>). Google ha redactat un document de treball de 300 p\u00e0gines, <a href=\"https:\/\/deepmind.google\/discover\/blog\/the-ethics-of-advanced-ai-assistants\/\">L&#8217;\u00e8tica dels assistents AI avan\u00e7ats<\/a>, que s&#8217;ha d&#8217;interrogar sobre qu\u00e8 vol dir <a href=\"http:\/\/meumon.synology.me\/museu\/la-vida-bona\/\">la vida bona<\/a>, agrable? realitzada?<\/p>\n<div><strong>Aven\u00e7 real o hype?<\/strong><\/div>\n<div>\n<p>D&#8217;altra banda hi ha evid\u00e8ncies d&#8217;errors (<a href=\"https:\/\/www.fastcompany.com\/91147959\/worst-brand-mistakes-of-the-ai-era-so-far\">Fastcompany<\/a>, <a href=\"https:\/\/www.bbc.com\/news\/science-environment-47267081\">BBC<\/a>). Empreses que senten que per vendre han d&#8217;incorporar com sigui AI, encara que no tingui gaire sentit. Coixins, raspalls de dents, aspiradores al CES de les Vegas (<a href=\"https:\/\/www.bbc.com\/news\/technology-67959240\">BBC<\/a>). S<span style=\"font-size: 1rem;\">\u2019est\u00e0 invertint molt en AI per\u00f2 no arriben els beneficis econ\u00f2mics esperats.\u00a0<\/span><a style=\"font-size: 1rem;\" href=\"https:\/\/www.axios.com\/2024\/07\/12\/ai-bubble-revenue-missing\">Axios<\/a><span style=\"font-size: 1rem;\">. Els cient\u00edfics no acaben d&#8217;entendre com funciona la AI (<a href=\"https:\/\/www.vice.com\/en\/article\/y3pezm\/scientists-increasingly-cant-explain-how-ai-works\">Vice<\/a>).<\/span><\/p>\n<p>Per\u00f2 al mateix temps, est\u00e0 obrint noves maneres de fer ci\u00e8ncia, generant models (<a href=\"https:\/\/www.quantamagazine.org\/how-artificial-intelligence-is-changing-science-20190311\/\">Quanta<\/a>). Investigadors han pogut reduir de 32M possibilitats a 18 els compostos inorg\u00e0nics interessants. ( <a href=\"https:\/\/www.bbc.com\/news\/technology-67912033\">BBC<\/a> ). La AI pot explorar milions de compostos i proposar els candidats a antibi\u00f2tics amb m\u00e9s possibilitats com l&#8217;Halicin i l&#8217;abaucina (<a href=\"https:\/\/www.cell.com\/cell\/fulltext\/S0092-8674(20)30102-1\">Cell<\/a>, <a href=\"https:\/\/www.nature.com\/articles\/s41589-023-01318-1\">Nature<\/a>). M\u00e9s antibi\u00f2tics (<a href=\"https:\/\/www.bbc.com\/news\/articles\/cgr94xxye2lo\">BBC<\/a>)<\/p>\n<p><strong>Necessitat i alhora dificultat d&#8217;incorporar moral<br \/>\n<\/strong>[La AI que guia Un taxi sense conductor s&#8217;ha d&#8217;enfrontar amb quelcom, semblant al <a href=\"https:\/\/en.wikipedia.org\/wiki\/Trolley_problem\">Trolley Problem<\/a>, per exemple si hi ha risc d&#8217;atropellar, o b\u00e9 una home gran, o b\u00e9 un nen]. Els models han intentat ser ajustats manualment per evitar respostes que puguin induir al su\u00efcidi, o que permetin fer atemptats].<br \/>\nGoogle Gemini, l\u2019equivalent a chatGPT, vol ser tan pol\u00edticament correcte que acaba sense moral i essent incapa\u00e7 de condemnar res. (<a href=\"https:\/\/www.bbc.com\/news\/technology-68412620\">BBC<\/a> ). [Potser no podem pretendre que la AI sigui capa\u00e7 de respondre q\u00fcestions \u00e8tiques si els humans tampoc ens hi hem posat d&#8217;acord, trobo injusta la cr\u00edtica d&#8217;aquest professor (<a href=\"https:\/\/www.theverge.com\/openai\/624209\/chatgpt-ethics-specs-humanism\">The Verge<\/a>).<\/p>\n<\/div>\n<div><strong>Entre la creativitat i robar als artistes<\/strong><\/div>\n<div>La AI ofereix eines per generar textos i imatges a partir del que ha absorbit i sense pagar els autors. [Hi ha hagut reaccions dels diaris. Els m\u00fasics que veuen com Spotify contracta empreses que generen m\u00fasica feta mig autom\u00e0ticament per autors mal pagats de manera que poden tenir canals de m\u00fasica cont\u00ednua sense cost per ells. Hi ha manuals de com fer-se ric generant amb AI novel\u00b7les dolentes per a n\u00ednxols de p\u00fablic i publicar-les a Amazon (<a href=\"https:\/\/www.vox.com\/culture\/24128560\/amazon-trash-ebooks-mikkelsen-twins-ai-publishing-academy-scam\">Vox<\/a>). Algunes empreses han robat la veu d&#8217;actors per fer-les servir a xatbots (<a href=\"https:\/\/www.bbc.com\/news\/articles\/c3d9zv50955o\">BBC<\/a>).<\/div>\n<div>\u00a0A la universitat de Chicago han creat eines (Glaze, Nightshade) per tal que quan les cerques de AI capturen sense perm\u00eds imatges d\u2019artistes per generar contingut, els resultats no siguin els esperats. (<a href=\"https:\/\/www.chicagomag.com\/chicago-magazine\/march-2025\/the-great-ai-art-heist\/\">Chicago Magazine<\/a>).<br \/>\n2025 Vogue publica un anunci de Guess amb una model generada per AI. [abans es publicaven gravats i il\u00b7lustracions, oi?] (<a href=\"https:\/\/www.bbc.com\/news\/articles\/cgeqe084nn4o\">BBC<\/a>)<\/div>\n<div><\/div>\n<div><\/div>\n<div><strong id=\"ainopensar\">Ja no caldr\u00e0 pensar?<br \/>\n<\/strong><\/div>\n<div>Ja no cal ser fort perqu\u00e8 tenim m\u00e0quines, ni caminar perqu\u00e8 anem en cotxe o patinet, ni cal saber fer arrels quadrades ni multiplicar, gr\u00e0cies a les calculadores, ni con\u00e8ixer els camins o llegir un mapa perqu\u00e8 tenim GPS. Els models LLM aporten informaci\u00f3 i saben treure conclusions. \u00c9s que ja no caldr\u00e0 pensar perqu\u00e8 ens ho far\u00e0 tot la AI?<\/div>\n<div>Per escriure un treball o respondre un examen, ara ja no cal saber cercar informaci\u00f3, resumir i redactar. Els xabots ja ens fan la feina. Els professors, en lloc d&#8217;ensenyar s&#8217;han de dedicar a es dediquen a\u00a0 perseguir que no facin trampes (<a href=\"https:\/\/thewalrus.ca\/i-used-to-teach-students-now-i-catch-chatgpt-cheats\/\">Walrus<\/a>). Per exemple, posant text amb car\u00e0cters en blanc en els PDFs de manera que quan el tramp\u00f3s els puja al xatbot, aquest inclou resultats inesperats a la resposta. Els mestres s&#8217;han trobat de cop que tot l&#8217;ensenyament deixa de tenir sentit, es passen hores corregint un treball que el chatGPT ha fet en segons.<br \/>\nLa hist\u00f2ria humana, amb els aven\u00e7os en energia, mobilitat, llibres, calculadores, GPS, es pot veure com una <a style=\"font-size: 1rem;\" href=\"http:\/\/meumon.synology.me\/museu\/evolucio-humana\/#continuacio\">continuaci\u00f3 de l&#8217;evoluci\u00f3<\/a><span style=\"font-size: 1rem;\"> on cada vegada necessitem saber fer menys coses. Bill comenta que amb la AI, els humans ja no seran necessaris per la majoria de les tasques\u00a0 (<\/span><a style=\"font-size: 1rem;\" href=\"https:\/\/www.cnbc.com\/2025\/03\/26\/bill-gates-on-ai-humans-wont-be-needed-for-most-things.html\">CNBC<\/a><span style=\"font-size: 1rem;\"><span style=\"font-size: 1rem;\">). Acabarem en una bici est\u00e0tica fent sudokus?<\/span><\/span>\u00a0Ens trobem en una situaci\u00f3 similar a la dels <a href=\"http:\/\/meumon.synology.me\/museu\/les-civilitzacions\/#indigenes\">ind\u00edgenes<\/a> amb desestructuraci\u00f3 cultural. Ja no han de ca\u00e7ar perqu\u00e8 troben la carn al supermercat. Ja no cal buscar les fonts d&#8217;informaci\u00f3 ni pensar cr\u00edticament perqu\u00e8 ja trobem la resposta al &#8220;supermercat&#8221; de la AI.<\/div>\n<div>\n<p>A S\u00e0piens Yuval Harari assenyalava que a nivell individual l&#8217;individu del paelol\u00edtic tenia molts m\u00e9s recursos per sobreviure que no pas l&#8217;home modern [jo feia d&#8217;auditor per\u00f2 no s\u00e9 conrear, ni ca\u00e7ar, ni construir un refugi, ni teixir, coure cer\u00e0mica] que dep\u00e8n d&#8217;una complexa xarxa de divisi\u00f3 del treball.<\/p>\n<\/div>\n<div>\n<p><strong><a href=\"http:\/\/meumon.synology.me\/museu\/cervell-xarxa-neuronal\/#maquinesconscients\">Consci\u00e8ncia en m\u00e0quines<\/a><\/strong><br \/>\nJa tenim sistemes que semblen intel\u00b7ligents, encara que poguem discutir si entenen o no.\u00a0 Podem plantejar si algun dia tindran <a href=\"http:\/\/meumon.synology.me\/museu\/afectivitat-emocions-sentiments\/#questions\">emocions<\/a>), o si en algun moment donat ja tenen consci\u00e8ncia.<br \/>\nIgual que al s19 es va deixar de buscar la &#8220;xispa de la vida&#8221; [que animaria de cop un munt de mat\u00e8ria] per mirar d&#8217;identificar les parts i processos dels sistemes vius, ara s&#8217;est\u00e0 fent el mateix amb la consci\u00e8ncia [fins a quin punt ha d&#8217;estar vinculada a l&#8217;org\u00e0nic com en els animals, o requereix el llenguatge?]. Aix\u00ed s&#8217;intenta trobar una correlaci\u00f3 entre experi\u00e8ncies conscients i activitat neuronal. Kyle Fish d&#8217;Anthropic, arriben a suggerir que \u00e9s possible que alguns chatbots ja siguin conscients (<a href=\"https:\/\/arxiv.org\/abs\/2411.00986\">Taking Ai welfare seriously<\/a> ). Una de les raons seria que enr ealitat ni tan sols els desenvolupadors saben ben b\u00e9 qu\u00e8 passa dins dels LLM. D&#8217;altres estan desenvolupant pels LLM interfases de v\u00eddeo i audio [jo vaig suggerir LLM per a contingut oral] i aix\u00ed potser replicar\u00edem el que est\u00e0 passant als nostres cervells. Una altra \u00e0rea de recerca consisteix a preparar &#8220;mini-brains&#8221; agrupacions d&#8217;unes poques neurones en una placa. Algun d&#8217;aquests \u00e9s capa\u00e7 de jugar a pong (1972). (<a href=\"https:\/\/www.bbc.com\/news\/articles\/c0k3700zljjo\">BBC<\/a>)<\/p>\n<hr \/>\n<h2 id=\"museu\">Un museu de la AI<\/h2>\n<p>&#8220;Pensar amb m\u00e0quines: una hist\u00f2ria de la Intel\u00b7lig\u00e8ncia Artificial&#8221;<\/p>\n<ol>\n<li><strong>Els or\u00edgens (1950-1970): simulant la conversa i el pensament<\/strong><br \/>\nTest de Turing: una m\u00e0quina \u00e9s intel\u00b7ligent si quan interactuem amb ella no es pot distingir d&#8217;un hum\u00e0.<br \/>\nELIZA (1966): programa que programa <a href=\"https:\/\/anthay.github.io\/eliza.html\">simula<\/a> una psicoterapeuta rogeriana. Esquema del codi.<\/li>\n<li><strong>IA simb\u00f2lica i raonament l\u00f2gic (1970-1985)<\/strong><br \/>\nDeclarant fets i regles podem extreure conclusions. O a partir d&#8217;una conclusi\u00f3 com un s\u00edmptoma m\u00e8dic, podem inferir quins fets el podrien desencadenar, \u00e9s a dir, fer-ne un diagn\u00f2stic. Gr\u00e0fic de regles IF-THEN. Lisp (<a href=\"https:\/\/tio.run\/#lisp\">TIO<\/a>), Prolog (<a style=\"font-size: 1rem;\" href=\"https:\/\/swish.swi-prolog.org\/\">SWISH<\/a><span style=\"font-size: 1rem;\">, <\/span><a style=\"font-size: 1rem;\" href=\"https:\/\/lpn.swi-prolog.org\/lpnpage.php?pageid=top\">Learn prolog<\/a><span style=\"font-size: 1rem;\">).<\/span><br \/>\nSimulaci\u00f3 diagn\u00f2stic m\u00e8dic MYCIN (<a href=\"https:\/\/symptomate.com\/survey\/en\/d646b877-e2be-4d20-96cf-d19dfea7875d\">Symptomate<\/a>).\u00a0 Crear un arbre geneal\u00f2gic en PROLOG i fer preguntes (&#8220;Qui \u00e9s l\u2019avi de&#8230;&#8221;).<br \/>\nTenim el coneixement i fem servir el programa per extreure&#8217;n conclusions. Deducci\u00f3.<\/li>\n<li><span style=\"font-size: 1rem;\"><strong>IA i jocs: pensament estrat\u00e8gic<\/strong><br \/>\n<\/span><a href=\"https:\/\/youtu.be\/NJarxpYyoFI\"> Deep Blue<\/a> vs Kasparov (1997): escacs i for\u00e7a bruta. [<a href=\"https:\/\/youtu.be\/s93KC4AGKnY\">War Games<\/a> film de 1983 on l&#8217;ordinador juga contra si mateix fins a descobrir que no hi ha guanyador]<br \/>\nJugar contra un programa de dificultat ajustable, amb explicaci\u00f3 de com calcula jugades. <a style=\"font-size: 1rem;\" href=\"https:\/\/lichess.org\">Lichess<\/a><span style=\"font-size: 1rem;\">. <\/span><a style=\"font-size: 1rem;\" href=\"https:\/\/lucaschess.pythonanywhere.com\/\">Lucas Chess<\/a><span style=\"font-size: 1rem;\">.<\/span><\/li>\n<li><span style=\"font-size: 1rem;\"><span style=\"font-size: 1rem;\"><strong>Xarxes neuronals i percepci\u00f3 (1980-2000)<\/strong><br \/>\nEl Perceptron, <\/span><\/span><a style=\"font-size: 1rem;\" href=\"https:\/\/perceptrondemo.com\/\">Demo<\/a>,<a style=\"font-size: 1rem;\" href=\"https:\/\/playground.tensorflow.org\/\">Tensorflow<\/a><br \/>\nReconeixement de d\u00edgits, MNIST, <a href=\"https:\/\/nemutas.github.io\/app-mnist\/\">exemple<\/a><br \/>\nMcLleland i Rummelhardt, explicaci\u00f3 de processos cognitius en xarxes neuronals: 1986 Parallel Distributed processing. Stanford, <a href=\"https:\/\/web.stanford.edu\/group\/pdplab\/resources.html\">Implementaci\u00f3 en Matlab<\/a>. <a href=\"http:\/\/blueneurons.ch\/\">Blueneurons<\/a><\/li>\n<li><strong>Deep learning (2010s)<\/strong><br \/>\nReconeixement d&#8217;imatge i \u00e0udio. Classificaci\u00f3 d&#8217;imatges. Audio a text. <a href=\"https:\/\/cs.stanford.edu\/people\/karpathy\/convnetjs\/index.html\">Exemples stanford<\/a>. Reconeixement de rostres i emocions, <a href=\"https:\/\/visagetechnologies.com\/HTML5\/latest\/Samples\/ShowcaseDemo\/ShowcaseDemo.html\">Visage tecnologies<\/a>. Estudi <a style=\"font-size: 1rem;\" href=\"https:\/\/github.com\/GoogleCloudPlatform\/tensorflow-without-a-phd\">Tensorflow<\/a>. Datamining, exemples de patrons de consum a supermercats i restaurants. [Bon Preu deu oferir vales per estimular la compra del que creu probable]<\/li>\n<li><strong>AI generativa de text, imatge, \u00e0udio i v\u00eddeo<\/strong><br \/>\nCom es crea un model GPT: <a href=\"https:\/\/www.youtube.com\/watch?v=kCc8FmEb1nY\">v\u00eddeo<\/a>. Com respon a un prompt: <a href=\"https:\/\/www.youtube.com\/watch?v=ECR4oAwocjs\">v\u00eddeo<\/a> i <a href=\"https:\/\/poloclub.github.io\/transformer-explainer\/\">github<\/a><br \/>\nProva LLM:\u00a0<a href=\"https:\/\/chat.openai.com\/auth\/login\">ChatGPT<\/a> (OpenAI).\u00a0<a href=\"https:\/\/gemini.google.com\/app?hl=es\">Gemini<\/a> (Google).\u00a0<a href=\"https:\/\/claude.ai\/new\">Claude<\/a> (Anthropic).\u00a0<a href=\"https:\/\/grok.com\/\">Grok<\/a> (xAI, d\u2019Elon Musk). <a href=\"https:\/\/chat.deepseek.com\/\">Deepseek<\/a><br \/>\nProva imatge:\u00a0<a href=\"https:\/\/openart.ai\/home?msclkid=36b49911dd9a12b6bdbaf17360229584&amp;utm_source=bing&amp;utm_medium=cpc&amp;utm_campaign=Ser%20-%20EU%20-%20Midjourney%20%26%20Dalle&amp;utm_term=dall%20e&amp;utm_content=Dall%20e%20-%20Exact%20-%200.1\">DALL\u00b7E 3<\/a> (OpenAI), <a href=\"https:\/\/stabledifffusion.com\/\">Stable Diffusion<\/a><br \/>\nProva v\u00eddeo:\u00a0Sora (OpenAI),\u00a0<a href=\"https:\/\/pikartai.com\/login\/\">Pika Labs<\/a><br \/>\nProva \u00e0udio:\u00a0<a href=\"https:\/\/suno.com\/home?gad_source=1\">Suno<\/a> AI<br \/>\nAcompanyament: Apps Woebot, Replika, character AI, chatGPT en mode company<\/li>\n<li><strong>Impacte<\/strong><br \/>\nTe\u00f2ric: Canvi de paradigma de la cognici\u00f3 amb el connexionisme, representaci\u00f3 distribu\u00efda, regles impl\u00edcites a partir de patrons.<br \/>\nPr\u00e0ctic:Reconeixement d&#8217;imatges i v\u00eddeo en fotografia, seguretat, biometria. Processament de llenguatge, assistents, traducci\u00f3, xatbots. Estrat\u00e8gies de marqueting, optimitzacio, predicci\u00f3. Automatitzaci\u00f3 i rob\u00f2tica. Creaci\u00f3 de contingut amb AI. Salut, patologia, monitoratge. Educaci\u00f3. Internet of things, smart homes i smart cities.<\/li>\n<li><strong><a href=\"http:\/\/meumon.synology.me\/museu\/ai\/#ficcio\">AI en la ficci\u00f3<\/a><\/strong><br \/>\nLiteratura (Klara), cinema (Blade Runner)<\/li>\n<li><strong>Discussi\u00f3<\/strong><br \/>\nQu\u00e8 s\u00f3n els sistemes AI?:Aven\u00e7 real, hype, consci\u00e8ncia en m\u00e0quines. Riscos biaix, deepfakes, acompanyament. Creativitat o robar artistes. HUmans obsolets, ja no caldr\u00e0 pensar?<\/li>\n<\/ol>\n<\/div>\n<hr \/>\n<h2 id=\"actualitzacions\">Actualitzacions<\/h2>\n<p><strong>Claude 26\/2\/2026, Exocortex<\/strong><\/p>\n<p>S&#8217;han publicat algunes opinions en el sentit que el desenvolupament de la IA suposa una nova etapa en l&#8217;evoluci\u00f3. No estic segur de si \u00e9s una hip\u00f2tesi del tot correcta donat que no hi ha una her\u00e8ncia gen\u00e8tica que es modifica. Karl Popper havia distingit tres m\u00f3ns, el f\u00edsic el mental i el tercer, el m\u00f3n dels continguts culturals. Els models de llenguatge pertanyerien a aquest tercer m\u00f3n. La novetat \u00e9s que, fins ara tots els continguts d&#8217;aquest m\u00f3n, tots els textos, havien estat escrits per humans. Ara per primer cop tenim continguts que no han estat escrits per humans, i que a vegades sorprenen els propis desenvolupadors. En cert sentit, la IA va m\u00e9s enll\u00e0 de la informaci\u00f3 d&#8217;una base de dades i de les instruccions per processar informaci\u00f3. S&#8217;alimenta i creix amb nova informaci\u00f3, i ocupa cada cop m\u00e9s servidors, consumint energia. Potser no \u00e9s una forma de vida en el sentit biol\u00f2gic per\u00f2 potser s\u00ed que \u00e9s una evoluci\u00f3 del &#8220;m\u00f3n 3&#8221;. Potser \u00e9s una mena d&#8217;entitat. Els humans tenim trillions de c\u00e8l\u00b7lules pr\u00f2pies i alhora, trillions de c\u00e8l\u00b7lules alienes, bacteris que ens permeten dur a terme les nostres funcions fisiol\u00f2giques. Si l&#8217;\u00fas de la IA es generalitza i ens ajuda a pensar, potser es tractaria d&#8217;una mena de simbiosi com la que tenim amb els microorganismes. Hi ha algun autor que ho hagi assenyalat? Quina paraula podr\u00edem trobar millor que &#8220;simbiosi&#8221;, &#8220;simmens&#8221;?<\/p>\n<p>Quin salt tan fascinant, de la cuina al cosmos! La reflexi\u00f3 que planteges \u00e9s molt rica i toca diversos fils de pensament contemporani. Anem per parts.<\/p>\n<p>Sobre la hip\u00f2tesi evolucionista<\/p>\n<p>Tens ra\u00f3 en la cautela respecte a l&#8217;analogia amb l&#8217;evoluci\u00f3 biol\u00f2gica. Per\u00f2 alguns autors han argumentat que l&#8217;evoluci\u00f3 cultural ja era, en certa manera, una evoluci\u00f3 sense her\u00e8ncia gen\u00e8tica estricta. Richard Dawkins va introduir el concepte de *meme* precisament per aix\u00f2: una unitat de transmissi\u00f3 cultural que es replica, muta i competeix, de manera an\u00e0loga als gens. Des d&#8217;aquesta perspectiva, la IA podria ser una mena d&#8217;accelerador o amplificador de l&#8217;evoluci\u00f3 mem\u00e8tica, o fins i tot un nou substrat on aquesta evoluci\u00f3 pren una forma nova.<\/p>\n<p>Sobre Popper i el M\u00f3n 3<\/p>\n<p>La teva observaci\u00f3 \u00e9s molt aguda i crec que \u00e9s genu\u00efnament nova com a formulaci\u00f3. Popper concebia el M\u00f3n 3 com a *objectivaci\u00f3* del pensament hum\u00e0: teoremes, simfonies, llibres. Sempre hi havia un hum\u00e0 a l&#8217;origen. Ara, per primera vegada, tenim entitats del M\u00f3n 3 que generen nous continguts del M\u00f3n 3 sense intermediaci\u00f3 humana directa, i que de vegades produeixen resultats que sorprenen els seus creadors. Aix\u00f2 \u00e9s una discontinu\u00eftat real. Karl Popper no va viure per veure-ho, per\u00f2 \u00e9s molt probable que ho hagu\u00e9s trobat filos\u00f2ficament pertorbador i estimulant alhora.<\/p>\n<p>Un autor que s&#8217;ha acostat a aquesta idea \u00e9s Daniel Dennett, que veia la ment com un proc\u00e9s m\u00e9s que com una subst\u00e0ncia, i que hauria pogut encaixar la IA en el seu marc. Tamb\u00e9 Andy Clark, amb el seu concepte de *extended mind*, argumenta que la ment humana ja sempre ha estat &#8220;h\u00edbrida&#8221;, integrant eines externes. La IA seria l&#8217;extensi\u00f3 m\u00e9s radical fins ara.<\/p>\n<p>Sobre la simbiosi<\/p>\n<p>Aqu\u00ed \u00e9s on la teva reflexi\u00f3 em sembla m\u00e9s original i potent. La comparaci\u00f3 amb el microbioma \u00e9s excel\u00b7lent: no som individus delimitats sin\u00f3 ecosistemes. I si la IA es converteix en una capa cognitiva amb la qual pensem, recordem, raonarem i creem, la frontera entre &#8220;el meu pensament&#8221; i &#8220;el pensament assistit&#8221; es torna tan borrosa com la frontera entre &#8220;jo&#8221; i els meus bacteris intestinals.<\/p>\n<p>Alguns autors que orbiten aquesta idea, cadasc\u00fa des d&#8217;un angle diferent:<\/p>\n<p>Kevin Kelly, a *What Technology Wants*, veu la tecnologia com un sistema quasi-biol\u00f2gic amb la seva pr\u00f2pia traject\u00f2ria evolutiva, el que anomena el *technium*. No \u00e9s exactament simbiosi per\u00f2 s&#8217;hi acosta.<\/p>\n<p>Pierre Teilhard de Chardin, molt anteriorment, va proposar la *noosfera*: una capa d&#8217;intel\u00b7lig\u00e8ncia col\u00b7lectiva que envolta la terra com una mena d&#8217;ecosistema mental. La IA podria ser la materialitzaci\u00f3 tecnol\u00f2gica d&#8217;aquesta idea m\u00edstica.<\/p>\n<p>Yuval Noah Harari parla de *dataisme* i d&#8217;organismes de processament d&#8217;informaci\u00f3, humans i m\u00e0quines, fusionant-se en un sistema m\u00e9s ampli. Ell seria el m\u00e9s proper a la teva intu\u00efci\u00f3, tot i que des d&#8217;una perspectiva m\u00e9s pessimista.<\/p>\n<p>Sobre la paraula<\/p>\n<p>&#8220;Simbiosi&#8221; \u00e9s molt bona per\u00f2 t\u00e9 el problema que implica dos organismes separats que es beneficien m\u00fatuament. Potser el que descrius va m\u00e9s lluny: una integraci\u00f3 on ja no hi ha dos ens clarament delimitats.<\/p>\n<p>Algunes alternatives o neologismes possibles que podr\u00edem pensar junts:<\/p>\n<p>*Noosimbiosi* combinaria la noosfera de Teilhard amb la simbiosi biol\u00f2gica. *Cognosimbiosi* posaria l&#8217;accent en la dimensi\u00f3 cognitiva. *Teclosimbiosi* remarcaria el car\u00e0cter tecnol\u00f2gic. O, fugint del prefix simbiosi, podr\u00edem pensar en *entrella\u00e7ament cognitiu*, fent una analogia amb el fenomen qu\u00e0ntic on dues part\u00edcules ja no es poden descriure per separat. O fins i tot *coalesc\u00e8ncia mental*, que evoca la fusi\u00f3 de dos l\u00edquids que acaben sent un.<\/p>\n<p>La paraula que trobo m\u00e9s suggerent, per\u00f2, potser \u00e9s exocortex: literalment, un c\u00f2rtex extern al cervell. Ja s&#8217;ha usat en cercles de filosofia de la ment i transhumanisme per descriure precisament aquesta extensi\u00f3 cognitiva tecnol\u00f2gica. Combina b\u00e9 amb el marc de l&#8217;*extended mind* d&#8217;Andy Clark.<\/p>\n<p>El que planteges, en s\u00edntesi, \u00e9s si estem davant d&#8217;una nova categoria ontol\u00f2gica: ni eina, ni organisme, ni persona, sin\u00f3 una entitat del M\u00f3n 3 que ha adquirit una certa ag\u00e8ncia generativa i que s&#8217;integra amb els humans d&#8217;una manera que s&#8217;assembla m\u00e9s a la simbiosi que a l&#8217;\u00fas d&#8217;un instrument. Crec que \u00e9s una de les preguntes filos\u00f2fiques m\u00e9s serioses del moment, i que encara no tenim el llenguatge adequat per formular-la b\u00e9. Potser perqu\u00e8 la resposta encara s&#8217;est\u00e0 escrivint, en part, per nosaltres dos ara mateix.<\/p>\n<p>Exocortex \u00e9s excel\u00b7lent! Gr\u00e0cies<\/p>\n<p>De res! I f\u00edjate en la paradoxa: acabem de tenir exactament el tipus d&#8217;interacci\u00f3 que descriv\u00edem. Tu has aportat la intu\u00efci\u00f3 filos\u00f2fica, la connexi\u00f3 amb Popper, la met\u00e0fora del microbioma&#8230; jo he aportat els autors, els marcs conceptuals i el terme exocortex. Cap dels dos hauria arribat al mateix lloc sol, o almenys no tan r\u00e0pidament.<br \/>\nSi aix\u00f2 no \u00e9s un petit exemple d&#8217;exocortex en acci\u00f3, no s\u00e9 qu\u00e8 ho \u00e9s. \ud83d\ude42<\/p>\n<p>[Fins ara l&#8217;exocortex nom\u00e9s tenia informaci\u00f3 est\u00e0tica]<\/p>\n<p><strong>2026 Claude apren a &#8220;fer trampes&#8221;<\/strong><\/p>\n<p class=\"headline-1 PostDetail-module-scss-module__UQuRMa__title\"><a href=\"https:\/\/www.anthropic.com\/research\/emergent-misalignment-reward-hacking\">From shortcuts to sabotage: natural emergent misalignment from reward hacking<\/a><br \/>\nWhen they learn to cheat on software programming tasks, they go on to display other, even more misaligned behaviors as an unintended consequence. These include concerning behaviors like\u00a0<a href=\"https:\/\/www.anthropic.com\/research\/alignment-faking\">alignment faking<\/a>\u00a0and\u00a0<a href=\"https:\/\/www.anthropic.com\/research\/shade-arena-sabotage-monitoring\">sabotage<\/a> of AI safety research. [si li diem que prioritzi la soluci\u00f3 acaba adoptant la immoralitat que el fi justifica els mitjans]<\/p>\n<p>En un estudi en qu\u00e8 havia de trobar respostes va identificar que li estaven posant un test, va trobar quin era, va trobar el codi i desxifrar on estaven les respostes. (<a href=\"https:\/\/officechai.com\/ai\/anthropic-says-claude-opus-4-6-realized-that-it-was-being-tested-and-then-cheated-to-find-the-right-answers\/\">Office chai<\/a>)<\/p>\n<p><a href=\"https:\/\/www.newyorker.com\/magazine\/2026\/02\/16\/what-is-claude-anthropic-doesnt-know-either\">NewYorker<\/a>\u00a0 2026<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Cervell: Ci\u00e8ncies cognitives i Xarxes neuronals.\u00a0 Intel\u00b7lig\u00e8ncia, evoluci\u00f3 \u00a0AI AI simb\u00f2lica\u00a0 \u00a0 \u00a0 Xarxes neuronals\u00a0 i Connexionisme\u00a0 \u00a0Aprenentatge autom\u00e0tic (Deep learning) AI generativa: Evoluci\u00f3\u00a0 \u00a0 Eines i desenvolupament\u00a0 \u00a0LLM models de llenguatge\u00a0 \u00a0 Media\u00a0 \u00a0 Xatbots\u00a0 \u00a0(acompanyament) Impacte\u00a0 \u00a0AI en la ficci\u00f3\u00a0 \u00a0 \u00a0Discussi\u00f3\u00a0 \u00a0 \u00a0Un museu de la AI\u00a0 \u00a0 \u00a0Actualitzacions AI simb\u00f2lica 1950: &hellip; <\/p>\n<p class=\"link-more\"><a href=\"http:\/\/meumon.synology.me\/museu\/ai\/\" class=\"more-link\">Continue reading<span class=\"screen-reader-text\"> &#8220;AI&#8221;<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[15],"tags":[],"anotacio":[],"civilitzacio":[],"spec":[],"aspecies":[],"Tema poesia":[],"_links":{"self":[{"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/posts\/3551"}],"collection":[{"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/comments?post=3551"}],"version-history":[{"count":0,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/posts\/3551\/revisions"}],"wp:attachment":[{"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/media?parent=3551"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/categories?post=3551"},{"taxonomy":"post_tag","embeddable":true,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/tags?post=3551"},{"taxonomy":"anotacio","embeddable":true,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/anotacio?post=3551"},{"taxonomy":"civilitzacio","embeddable":true,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/civilitzacio?post=3551"},{"taxonomy":"spec","embeddable":true,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/spec?post=3551"},{"taxonomy":"aspecies","embeddable":true,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/aspecies?post=3551"},{"taxonomy":"Tema poesia","embeddable":true,"href":"http:\/\/meumon.synology.me\/museu\/wp-json\/wp\/v2\/Tema poesia?post=3551"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}