
Představa, že velké jazykové modely jako ChatGPT jen mechanicky papouškují naučené texty, výrazně zjednodušuje jejich skutečnou komplexitu. Tyto systémy nevytvářejí statistiky po sobě jdoucích slov, ale budují sofistikované mapy vztahů mezi koncepty. Díky architektuře zvané transformer a mechanismu "self-attention" dokáží analyzovat celý kontext a určit, která slova jsou pro význam klíčová. Modely nepracují přímo se slovy, ale s jejich číselnými reprezentacemi zachycujícími význam. To jim umožňuje generovat smysluplné odpovědi i na zcela nové kombinace slov, které nikdy neviděly. Mezi odborníky probíhá živá debata, zda tyto systémy skutečně rozumí obsahu, který produkují. Fascinující jsou především "emergentní schopnosti" - dovednosti jako matematické uvažování či programování, které se objevují až u dostatečně komplexních modelů a často překvapují i jejich tvůrce.#konverzace