<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Transformery on Field Laboratory</title><link>https://armum.eu/tags/transformery/</link><description>Recent content in Transformery on Field Laboratory</description><generator>Hugo</generator><language>pl-pl</language><lastBuildDate>Wed, 29 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://armum.eu/tags/transformery/index.xml" rel="self" type="application/rss+xml"/><item><title>Transformery: krótki przewodnik od tokenów do bloku LLM</title><link>https://armum.eu/posts/transformery-krotki-przewodnik/</link><pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate><guid>https://armum.eu/posts/transformery-krotki-przewodnik/</guid><description>&lt;p&gt;Transformer jest dziś podstawową architekturą większości dużych modeli językowych. Najlepiej rozumieć go nie jako jedną „magiczną” warstwę, ale jako powtarzalny mechanizm przetwarzania sekwencji: tekst zostaje podzielony na tokeny, tokeny są zamieniane na wektory, a kolejne bloki modelu stopniowo wzbogacają te wektory o kontekst.&lt;/p&gt;
&lt;p&gt;Poniżej jest krótka ścieżka przez sześć grafik. Każda pokazuje inny poziom szczegółowości: od ogólnego przepływu danych, przez self-attention, aż po współczesny blok używany w modelach LLM.&lt;/p&gt;
&lt;h2 id="1-ogólny-przepływ"&gt;
 1. Ogólny przepływ
 &lt;a class="heading-link" href="#1-og%c3%b3lny-przep%c5%82yw"&gt;
 &lt;i class="fa-solid fa-link" aria-hidden="true" title="Link to heading"&gt;&lt;/i&gt;
 &lt;span class="sr-only"&gt;Link to heading&lt;/span&gt;
 &lt;/a&gt;
&lt;/h2&gt;
&lt;figure class="transformer-figure"&gt;
 &lt;a class="transformer-figure-link" href="images/01-overview.webp" target="_blank" rel="noopener"&gt;
 &lt;img src="images/01-overview.webp" width="1672" height="941" alt="Ogólny schemat transformera: tokenizacja, embeddingi, bloki transformera i wyjście modelu."&gt;
 &lt;/a&gt;
 &lt;figcaption&gt;Ogólny schemat transformera: tokenizacja, embeddingi, informacja pozycyjna, stos bloków transformera i wyjście modelu.&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;p&gt;Na wejściu model nie widzi zdań tak jak człowiek. Tekst jest dzielony na tokeny, czyli jednostki przetwarzania modelu. Token nie musi być całym słowem — może być fragmentem słowa, znakiem interpunkcyjnym albo specjalnym symbolem.&lt;/p&gt;</description></item></channel></rss>