Tak wygląda praca nad rozwojem polskiej sztucznej inteligencji. Współtwórca Bielik.AI zdradza kulisy

15-16 czerwca 2026 • Katowice • Międzynarodowe Centrum Kongresowe
Zarejestruj się
- Podczas Europejskiego Kongresu Gospodarczego w Katowicach rozmawialiśmy z Sebastianem Kondrackim, współtwórcą Bielik.AI, o rozwoju modelu polskiej sztucznej inteligencji, współpracy z biznesem, suwerenności technologicznej i gotowości polskich firm na wdrażanie AI do organizacji.
- Jego zdaniem, Polska jest w bardzo dobrym momencie rozwoju w tym obszarze i ma podstawy do budowania cyfrowej suwerenności.
- - Wyzwaniem będzie jednak zapotrzebowanie na moc obliczeniową - przestrzegał w rozmowie z WNP Sebastian Kondracki.
Sebastian Kondracki, pomysłodawca i współtwórca Bielik.AI, prezes fundacji SpeakLeash, pełniący funkcję chief innovation officer w Deviniti, mówił w wywiadzie dla WNP o dalszym rozwoju polskiego modelu sztucznej inteligencji Bielik.AI.
Według niego to dziś dużo więcej niż tylko model językowy - to projekt, którego siłą jest społeczność. Rdzeń stanowi niewielki, wyspecjalizowany zespół odpowiedzialny za samo „serce” technologii.
- Rdzeniem projektu jest zespół trenujący model, tj. pięć osób, które mają dostęp do superkomputerów i bezpośrednio trenują Bielika - tłumaczył w rozmowie z nami.
Jak podkreślał, to oni odpowiadają za budowę i rozwój polskiego modelu językowego, ale na tym zaangażowanie innych osób w projekt się nie kończy.
- Jest też drugi, bardzo ważny krąg, tj. osoby tworzące aplikacje pomocnicze, piaskownice AI i demonstracje dla Bielika, zajmujące się promocją i testami nie tylko Bielika, ale też innych modeli - wyjaśniał nam Kondracki. To około 20-30 osób.
Siłą Bielika jest jednak jego społeczność, a projekt rozwija łącznie ok. 5 tys. osób.
- Bardzo szybko dostajemy opinie i feedback od biznesu, ale też od pierwszych użytkowników i testerów - podkreślał współtwórca polskiej sztucznej inteligencji. - W tej społeczności jest już około 5 tys. osób. Działają na Discordzie: rozmawiają, dyskutują, promują Bielika w swoich organizacjach. To trochę jak kibice klubu, dają nam energię do działania, ale przede wszystkim merytoryczny feedback - dodał.
Nowe języki w BielikuKondracki przypomniał też, jak zmieniał się sam model, o czym informowaliśmy już w WNP w wywiadzie z ekspertem na początku tego roku.
- Od 31 grudnia 2025 r. dodaliśmy do Bielika inne języki. Początkowo obsługiwał wyłącznie język polski, ale zauważyliśmy, że nasz sposób oczyszczania i klasyfikowania danych jest wyróżnikiem, więc postanowiliśmy przetestować inne języki - mówił w rozmowie z nami.
Eksperyment zakończył się sukcesem.
- Okazało się, że działa to bardzo dobrze, tj. Bielik obsługuje teraz ponad 30 języków naturalnych, a my próbujemy dalej rozszerzać tę liczbę i zbudować społeczność oraz bazę użytkowników nie tylko w Polsce, lecz także w całej Europie. To nasz główny plan na 2026 r. - zapowiedział.
Współpraca z biznesemTwórcy Bielika konsekwentnie akcentują, że ich inicjatywa nie jest typowym projektem komercyjnym.
- Jeśli chodzi o partnerów: cały czas podkreślamy, że jesteśmy społecznością, a nie klasyczną firmą komercyjną. Zależy nam na budowaniu wiedzy o sztucznej inteligencji i przekazywaniu jej do biznesu - zaznaczył Sebastian Kondracki.
Relacje z biznesem mają dla zespołu dwa wymiary.
- Po pierwsze, mecenat - firmy przekazują środki na infrastrukturę, na otoczenie fundacji: księgowość, finanse, formalności. Nasi partnerzy są więc mecenasami i sponsorami - wyliczał.
Drugi wymiar to konkretne wdrożenia i tu warto przypomnieć o współpracy z InPost. Czat Bielik.AI pojawił się w aplikacji InPost Mobile - można korzystać z niego za darmo i w ten sposób wspierać rozwój rodzimej technologii. Akcja "Nakarm Bielika" miała przyczynić się do trenowania sztucznej inteligencji przez bazę 15 mln użytkowników apki, o czym informowaliśmy już w WNP.
Firmy chcą wdrażać AI, ale brakuje im kompetencjiEkspert, pytany przez nas o gotowość polskich firm do wdrażania sztucznej inteligencji, poruszył kilka zagadnień.
- Pierwsza kwestia to kompetencje i wiedza - nie tylko techniczna, ale przede wszystkim organizacyjno-biznesowa. Okazuje się, że wiele projektów AI w firmach nie udaje się z powodu źle dobranego przypadku użycia - ocenił.
Jak dodał, często impuls do działania jest "wizerunkowy".
- Często jest tak: „Wdrożymy sztuczną inteligencję, bo jest modna, może tu się przyda”. A potem wychodzi, że „tu” wcale nie jest najlepszym miejscem na AI - zauważył.
Drugim elementem jest sposób, w jaki organizacje postrzegają LLM.
Suwerenność technologiczna po polskuWiększość z nas ocenia sztuczną inteligencję przez pryzmat ChataGPT, który zapoczątkował rewolucję generatywną i stał się jednym z najpopularniejszych modeli na świecie. Skoro czat potrafi tak wiele, firmy chciałyby „mieć ChatGPT u siebie”. Z tym wiążą się jednak koszty, regulacje, i co bardzo ważne, wrażliwość danych. Kwestia bezpieczeństwa danych to nadal lekcja, którą wiele organizacji musi dobrze odrobić. Widać jednak poprawę, świadomość rośnie - dodał.
Kolejnym ważnym aspektem jest suwerenność technologiczna, która za pomocą polskich modeli językowych niewątpliwie może być wspierana i rozwijana.
Zdaniem naszego rozmówcy kluczowe jest posiadanie własnej infrastruktury.
- Jeżeli działamy w obszarach krytycznych i przetwarzamy duże ilości danych wrażliwych, tj. danych osobowych klientów, tajemnic bankowych, lekarskich, adwokackich, państwowych i wielu innych, to warto, by sztuczna inteligencja działała na własnej infrastrukturze, a nie wyłącznie w chmurze publicznej. Mówię o tych brzegowych przypadkach, gdzie wrażliwość danych jest naprawdę wysoka - podkreślił.
Jego zdaniem, Polska jest obecnie w bardzo dobrym punkcie rozwoju rynku AI.
Mamy Bielika, mamy model PLLUM, a jeden z największych banków w kraju stworzył i udostępnił własny model innym przedsiębiorstwom - wyliczał Kondracki. - To oznacza, że mamy co najmniej trzy ośrodki tworzące małe, kompaktowe modele językowe, na których można budować suwerenność technologiczną - stwierdził.
Wyzwaniem będzie jednak infrastruktura obliczeniowa.
- Kolejne wyzwanie to zapotrzebowanie na moc obliczeniową. Europa boryka się z tym problemem, a zapotrzebowanie na komponenty do serwerów i komputerów, napędzane boomem AI, wywindowało ceny - zauważył.
wnp.pl



