30 września 2025 roku na ArXiv pojawiła się publikacja prezentująca Dragon Hatchling (BDH) – nową architekturę modeli językowych. Autorami pracy są Adrian Kosowski, Przemysław Uznański, Jan Chorowski, Zuzanna Stamirowska oraz Michał Bartoszkiewicz – polscy naukowcy związani z Uniwersytetem Cornella i z firmą Pathway. Krzysztof Ociepa, współzałożyciel Azurro, również bierze udział w tym projekcie. BDH wyróżnia się tym, że czerpie inspirację z mechanizmów pracy ludzkiego mózgu.
Projekt BDH szybko zwrócił uwagę międzynarodowej społeczności badaczy sztucznej inteligencji. Jak przekazał dr Maciej Kawecki, popularyzator nauki, artykuł polskich naukowców już kilka dni po publikacji na ArXiv uzyskał status „wiodącego artykułu” na platformie Hugging Face, która jest jednym z najważniejszych repozytoriów modeli AI na świecie. To wyróżnienie pokazuje, że zaproponowana koncepcja została dostrzeżona przez największe laboratoria i środowiska badawcze zajmujące się rozwojem sztucznej inteligencji.
Ta publikacja jest nie tylko kolejnym krokiem w rozwoju sztucznej inteligencji, ale także ważnym aspektem tego, jak uczynić modele bardziej zrozumiałymi i bliskimi naturalnym procesom poznawczym.
Czym jest BDH i czym jest inspirowana
Jak już wspomnieliśmy, BDH to nowa architektura modeli językowych, a jej twórcy chcą połączyć najlepsze cechy obecnych transformerów z mechanizmami znanymi z ludzkiego mózgu.

Architektura opiera się na sieci neuronów, które oddziałują ze sobą i korzystają z mechanizmów przypominających pamięć roboczą człowieka. Podczas przetwarzania informacji BDH wzmacnia połączenia między neuronami w zależności od tego, co aktualnie przetwarza, a jednocześnie korzysta z plastyczności synaptycznej, co oznacza, że połączenia mogą się dynamicznie zmieniać w odpowiedzi na nowe dane. Dzięki temu model aktualizuje swoją wiedzę w czasie rzeczywistym i lepiej odwzorowuje procesy znane z ludzkiego mózgu.
BDH jest zorganizowany w moduły, które współpracują ze sobą w sposób przypominający naturalne sieci neuronowe. Dzięki temu informacje są przetwarzane efektywniej, a struktura modelu jest bardziej uporządkowana i czytelna.
Pierwsze testy pokazują, że architektura działa porównywalnie do GPT-2 przy tej samej liczbie parametrów i przy wykorzystaniu tych samych danych treningowych i oferuje przy tym większą przejrzystość działania i interpretowalność. To sprawia, że BDH stanowi interesującą alternatywę dla standardowych modeli językowych i otwiera nowe możliwości badawcze w AI.
Architektura BDH a architektura transformerów – porównanie
Transformery od kilku lat stanowią podstawę rozwoju dużych modeli językowych. Ich główną cechą jest mechanizm uwagi, który pozwala analizować zależności między wszystkimi słowami w zdaniu. To rozwiązanie umożliwiło budowę dotychczasowym dużych modeli językowych, które potrafią przetwarzać ogromne ilości danych i generować tekst na wysokim poziomie.
Jednak transformery wymagają dużej mocy obliczeniowej i pamięci, co sprawia, że ich trenowanie i uruchamianie jest kosztowne. Dodatkowo, choć osiągają świetne wyniki, wewnętrzne działanie modeli jest mało przejrzyste i trudno jest wyjaśnić, dlaczego dany wynik został wygenerowany.
Autorzy architektury BDH starają się rozwiązać te problemy, wprowadzając strukturę bliższą biologicznym sieciom neuronowym. Zamiast globalnej uwagi między wszystkimi elementami tekstu, BDH wykorzystuje lokalne mechanizmy przypominające pamięć roboczą, co pozwala zmniejszyć zapotrzebowanie na zasoby obliczeniowe. Struktura modelu jest bardziej uporządkowana i łatwiejsza do zrozumienia niż w przypadku tradycyjnych transformerów.
Opracowanie architektury BDH pokazuje, że istnieją alternatywne podejścia, które mogą rozwinąć się obok tradycyjnych. Dzięki inspiracji biologią i wprowadzeniu bardziej przejrzystej struktury, Dragon Hatchling daje badaczom narzędzie do testowania nowych koncepcji i lepszego zrozumienia procesów uczenia maszynowego. Być może w przyszłości tego typu architektury nie tyle zastąpią transformery, ile uzupełnią je, oferując nowe możliwości rozwoju.
Zastosowania i kierunki badań
Choć BDH jest wciąż we wczesnej fazie rozwoju, już teraz widać kilka obszarów, w których jego architektura może być szczególnie wartościowa. Jednym z nich jest analiza procesów uczenia w modelach językowych. Dzięki bardziej przejrzystej strukturze BDH pozwala badaczom śledzić, jak model tworzy powiązania między informacjami, co może pomóc w lepszym zrozumieniu, jak sztuczna inteligencja się uczy. Nowa architektura może przyczynić się do rozwiązania jednego z największych wyzwań współczesnych modeli – problemu generalizacji, czyli zdolności do poprawnego działania w sytuacjach, z którymi system nie miał wcześniej do czynienia.
Drugim kierunkiem jest efektywność energetyczna. Ponieważ BDH nie wymaga globalnych połączeń między wszystkimi elementami tekstu, potrzebuje mniej mocy obliczeniowej. To oznacza, że podobne wyniki można uzyskać przy mniejszym zużyciu energii, co ma znaczenie zarówno dla środowiska, jak i dla instytucji badawczych dysponujących ograniczonymi zasobami.
Architektura ta może też odegrać istotną rolę w badaniach nad interpretowalnością AI. Modele oparte na BDH pozwalają łatwiej zrozumieć, które elementy sieci odpowiadają za konkretne decyzje. To może być szczególnie ważne w zastosowaniach wymagających transparentności, takich jak medycyna, prawo czy analiza danych publicznych.
Dragon Hatchling dopiero co został opublikowany, ale jego znaczenie jest ogromne. To próba połączenia kierunków badań z obszarów sztucznej inteligencji i neurobiologii pokazująca, że przyszłość AI może leżeć nie tylko w zwiększaniu liczby parametrów, ale też w projektowaniu modeli, które „myślą” w sposób bliższy ludzkiemu.
Podsumowanie
Architektura Dragon Hatchling to jeden z najciekawszych kierunków w rozwoju współczesnej sztucznej inteligencji. Projekt rzuca świeże spojrzenie na ograniczenia dotychczasowych modeli. BDH pokazuje, że inspiracje biologiczne, często wspominane w kontekście AI, mogą mieć realne zastosowanie w projektowaniu systemów, które uczą się szybciej i są bardziej zrozumiałe dla człowieka.
Wyróżnienie publikacji na platformie Hugging Face i duże zainteresowanie społeczności badawczej sugerują, że koncepcja BDH może stać się punktem odniesienia dla przyszłych prac nad modelami post-transformerowymi. To także dowód, że polscy naukowcy mają realny wpływ na kierunek, w jakim rozwija się sztuczna inteligencja.

