• Sigmoid
  • Posts
  • Creierul tău, simulat. Rezultatul bate realitatea.

Creierul tău, simulat. Rezultatul bate realitatea.

Meta a rezolvat unul dintre cele mai mari bottleneck-uri din neuroștiință

happy april, sigmaritans

astăzi avem multe de discutat, așa că așează-te comod și începe luna alături de noi!

AI avansează atât de rapid încât acum un singur om poate construi în câteva zile ceea ce obișnuia să ia unei echipe de ingineri luni întregi - iar modelele care fac asta posibil apar săptămânal. Află care sunt cele mai importante din această ediție, și care sunt noutățile cu care îi vei impresiona de data asta pe prietenii tăi (dar și mai bine dacă se abonează și ei la newsletter pentru a nu scăpa nimic) 😀 :

  • TRIBE v2 - simulează creierul uman

  • Roboți mai mici decât un fir de păr

  • GPT 5.4, Claude Mythos și alte modele AI

  • autoresearch - repo open-source pentru cercetare LLM

  • și multe altele)

Nu uita să-ți faci cafeluța și începe luna cum trebuie cu Sigmoid!

Meta simulează creierul uman mai bine decât scannerele reale

Meta a lansat TRIBE v2, un model AI antrenat pe scanări cerebrale de la peste 700 de persoane, care simulează activitatea neuronală pentru vedere, auz și limbaj, cu predicții sintetice care depășesc înregistrările reale fMRI.

  • Antrenat pe peste 1.000 de ore de date cerebrale, v2 face saltul de la 1.000 de regiuni ale creierului la 70.000, cu peste 700 de subiecți față de doar 4 voluntari în versiunea originală.

  • Predicțiile TRIBE v2 au corespuns activității cerebrale la nivel de populație mai bine decât majoritatea scanărilor reale, care sunt adesea distorsionate de bătăile inimii, mișcare și zgomot.

  • Echipa a replicat în software descoperiri din zeci de ani de neuroștiință, identificând corect regiunile cerebrale pentru fețe, vorbire și text fără nicio scanare.

  • Meta a lansat codul open-source și un demo live, permițând oricărui cercetător să ruleze experimente virtuale pe creier fără a construi infrastructura de la zero.

Neuroștiința a necesitat întotdeauna introducerea oamenilor în scannere scumpe pentru fiecare experiment nou, un bottleneck care a ținut întregi domenii să avanseze câte un studiu pe rând. TRIBE v2 ar putea face pentru cercetarea creierului ceea ce a făcut AlphaFold pentru structura proteinelor: să comprime luni de scanări în secunde de calcul.

Roboți mai mici decât un fir de păr

Cercetătorii au creat roboți microscopici 3D, capabili să înoate și să se deplaseze autonom în medii complexe.

  • Structură: Un lanț foarte flexibil de elemente autopropulsate

  • Material: Sintetic, imprimat 3D pe Nanoscribe

  • Dimensiunea elementelor: 5 µm

  • Dimensiunea articulațiilor: 0,5 µm

  • Mișcare: elemente autopropulsate

  • Viteză: 7 µm/secundă

  • Pentru comparație, un fir de păr uman are aproximativ 70-100 µm grosime.

La dimensiuni mai mici decât un fir de păr, acești roboți pot naviga prin spații înguste, fluide biologice și structuri cu geometrie complexă unde niciun dispozitiv convențional nu ar putea ajunge. Mișcarea autonomă, nu controlată extern fir cu fir, ci dirijată de logică proprie, e detaliul care îi separă de generațiile anterioare de micro-dispozitive.

Implicațiile medicale sunt cele mai imediate și mai evidente. Roboți de această dimensiune ar putea livra medicamente direct la celulele țintă, naviga prin sistemul circulator, sau efectua intervenții de precizie în zone inaccesibile chirurgiei clasice, reducând tratamente invazive și crescând precizia la nivel celular.

Dincolo de medicină, aplicațiile se extind în monitorizarea mediului, inspecția structurilor la scară micro și cercetarea materialelor. Un robot care poate înota autonom printr-un fluid și raporta ce găsește schimbă fundamental cum putem explora și interveni la scări unde ochiul uman nu ajunge.

„Cel mai bun model al nostru de până acum."

OpenAI a lansat GPT-5.4, noul model de vârf al companiei, cu îmbunătățiri majore în navigarea desktop, coding, raționament, știință și matematică. VP-ul Kevin Weil l-a descris simplu: „cel mai bun model al nostru de până acum."

  • OpenAI a lansat GPT-5.4 la doar două zile după ce a făcut din GPT-5.3 Instant modelul implicit de chat , disponibil acum ca GPT-5.4 Thinking pentru utilizatorii Plus, Team și Pro.

  • Modelul a obținut 75% pe OSWorld-V, un benchmark care testează navigarea reală pe desktop, cu 3 puncte peste baseline-ul uman de 72.4% și de două ori performanța GPT-5.2.

  • Suportă până la 1M tokeni de context și o nouă setare de raționament x-high, permițând agenților să planifice și să execute taskuri lungi care durează ore întregi.

  • GPT-5.4 a câștigat sau egalat profesioniști umani în 83% din cazuri pe GDPval, un benchmark de knowledge-work acoperind 44 de joburi, față de 71% pentru GPT-5.2.

De asemenea, OpenAI a lansat modelele GPT-5.4 Mini și Nano, versiuni mai rapide și mai eficiente ale modelului principal.

Claude Mythos leaked

Detalii despre următorul model flagship al Anthropic, Claude Mythos au apărut online după ce materiale de lansare au fost lăsate într-un sistem de stocare neprotejat. Un draft de blog îl descrie ca fiind „un salt major” și cel mai capabil sistem al companiei de până acum.

Ce s-a aflat:

  • O eroare de configurare CMS a expus mii de fișiere nepublicate, inclusiv un articol despre model.

  • Mythos ar face parte dintr-un nou nivel numit „Capybara”, peste clasa Opus, fiind mai mare și mai costisitor.

  • Modelul ar fi „mult peste orice alt AI în capabilități cibernetice”, cu potențial de a ajuta hackerii.

  • Anthropic a confirmat testarea unui nou model general, cu progrese importante în raționament, programare și securitate cibernetică.

Cercetarea AI la îndemâna oricui

Andrej Karpathy a lansat autoresearch, un repo open-source pentru experimente LLM automate pe un singur GPU. Ideea centrală e simplă: automatizează bucla de cercetare LLM, formulează ipoteze, rulează experimente, colectează rezultate, pe hardware accesibil oricui are un GPU decent. Ce înainte necesita resurse de laborator academic sau bugetele unui lab AI mare, acum poate rula pe o singură mașină.

Pentru comunitatea open-source, lansarea vine de la persoana potrivită la momentul potrivit. Karpathy are un istoric solid de a democratiza concepte complexe, de la nanoGPT la seria de tutoriale care au introdus zeci de mii de oameni în lumea LLM-urilor. autoresearch urmează aceeași logică: ia ceva ce părea rezervat celor cu resurse masive și îl face reproductibil de către oricine.

Mișcare 3D pentru roboți dintr-un singur prompt

NVIDIA a lansat Kimodo, un model AI care generează mișcări 3D realiste pentru oameni și roboți din text. Practic, în loc să animezi manual fiecare mișcare sau să colectezi ore întregi de date de motion capture, Kimodo generează secvențe de mișcare convingătoare dintr-un prompt simplu. „Un om care aleargă și sare peste un obstacol" sau „un robot care ridică un obiect fragil de pe o suprafață instabilă" devine o animație funcțională fără intervenție umană în proces.

Aplicațiile sunt imediate și concrete pe mai multe fronturi. În gaming și film, reduce dramatic timpul și costul producției de animații. În robotică, oferă date sintetice de antrenare pentru mișcări pe care roboții fizici nu le-au executat încă, accelerând dezvoltarea fără a necesita experimente costisitoare în lumea reală. În simulare industrială, permite testarea scenariilor de mișcare înainte ca un robot să fie vreodată construit.

Agentic Coding Level up!

Apple a lansat Xcode 26.3 cu integrare Claude Agent, Codex și MCP, permițând dezvoltatorilor să folosească raționamentul AI. 

Practic, developerii pot acum să folosească raționamentul AI direct din Xcode, fără să sară între aplicații sau să copieze cod între tab-uri. Claude Agent poate gestiona taskuri complexe de coding, Codex vine cu specializarea sa în programare autonomă, iar suportul MCP înseamnă că Xcode poate comunica cu orice tool extern compatibil cu protocolul, de la baze de date la API-uri și servicii externe.

Pentru developerii din ecosistemul Apple, schimbarea e semnificativă. Până acum, integrarea AI în fluxul de lucru însemna tool-uri terțe, extensii sau workaround-uri. Xcode 26.3 mută totul în interiorul mediului nativ cu acces la contextul complet al proiectului, fără necesitatea copierii manuale a codului.

Noi updates de la Google

  • Google DeepMind a lansat Gemini 3.1 Flash-Lite, cel mai eficient model din seria Gemini 3. Vizează aplicații care necesită viteză și cost redus, ideal pentru producție la scară, unde latența și prețul per token contează mai mult decât performanța maximă. Completează gama Gemini 3.1 alături de Pro și Flash, acoperind acum toate cele trei segmente: putere, echilibru și eficiență.

  • Google a lansat Gemini 3.1 Flash Live, un model AI vocal optimizat pentru conversații în timp real, cu latență foarte scăzută și răspunsuri mai naturale. Acesta îmbunătățește interacțiunile voce-la-voce, fiind potrivit pentru asistenți virtuali, aplicații de customer support și experiențe hands-free și este integrat în ecosistemul Gemini pentru dezvoltatori.

  • Google a lansat Gemini Embedding 2, un model AI multimodal pentru generarea de embeddings, capabil să proceseze atât text, cât și imagini. Noul model oferă performanțe îmbunătățite pentru căutare semantică, recomandări și aplicații RAG (retrieval-augmented generation), având o acuratețe mai mare și o eficiență mai bună față de versiunile anterioare. Este optimizat pentru scalare și integrat în ecosistemul Gemini, fiind disponibil prin API pentru dezvoltatori.

  • Google a lansat TurboQuant, care comprimă modelele AI și le face mai rapide și eficiente, o tehnologie de compresie pentru modele AI care reduce dimensiunea acestora fără pierderi semnificative de performanță. Rezultatul: modele mai rapide, costuri de rulare mai mici și posibilitatea de a rula AI avansat pe dispozitive cu resurse limitate, inclusiv on-device.