Programowanie i Architektura

Podejmujemy tematykę programowania i architektury systemów IT. Przedmiotem naszych zainteresowań będą zarówno zagadnienia uniwersalne niezależne od konkretnego języka programwania jak i te wchodzące w detale programowania na platformach: Java, .NET, Python, JavaScript, PHP.

Jakość i infrastruktura

Podejmujemy tematykę Zapewniania Jakości systemów IT jak i wspomagania procesów ich tworzenia i utrzymania za pomocą podejścia DevSecOps z wykorzystaniem rozwiązań Cloud i onPrem.

Uczestników

0

Dzień

0

Prelegentów

0

Równoległe ściezki

0

Prelegenci

Jarosław Pałka Photo
Jarosław Pałka
Jarosław Pałka Photo
Jarosław Pałka
closepopup
Łukasz Reszke
Łukasz Reszke
closepopup
Mateusz Wojczal
Mateusz Wojczal
closepopup
Piotr Przybył
Piotr Przybył
closepopup
Paweł Piwosz
Paweł Piwosz
closepopup
Chris Engelbert
Chris Engelbert
closepopup
Mike WojtynaPrincipal Software Engineer | Trainer / Bottega IT Minds

I'm a software architect with a passion for creating great products 🌱. In my work I combine business and technical skills to deliver outstanding results to my clients. Domain-driven design & Test-driven development are some of my favorite tools. My code is clean and easy to modify, thanks to the modular, loosely coupled design achieved by continuous TDD iterations backed by a deep understanding of business needs.

"My design is better than yours: bridging the gap between tactical modeling and business"

Engineers have a tendency to create emotional connections with their models. At best, this can end up with a lot of pointless discussions, at worst escalate to nearly-religious wars in the defense of ""the only right model”. So… Are we doomed to repeat these nonsensical fights all the time? Fortunately, there’s an entity that can decide which model is better. It’s called business.

During this presentation I’m going to show you how you can avoid analysis paralysis, pointless discussions, common design pitfalls and creating overengineered, often totally unnecessary code. Together, we’ll bridge the gap between tactical modeling and true business drivers.

Mike WojtynaPrincipal Software Engineer | Trainer / Bottega IT Minds

I'm a software architect with a passion for creating great products 🌱. In my work I combine business and technical skills to deliver outstanding results to my clients. Domain-driven design & Test-driven development are some of my favorite tools. My code is clean and easy to modify, thanks to the modular, loosely coupled design achieved by continuous TDD iterations backed by a deep understanding of business needs.

"My design is better than yours: bridging the gap between tactical modeling and business"

Engineers have a tendency to create emotional connections with their models. At best, this can end up with a lot of pointless discussions, at worst escalate to nearly-religious wars in the defense of ""the only right model”. So… Are we doomed to repeat these nonsensical fights all the time? Fortunately, there’s an entity that can decide which model is better. It’s called business.

During this presentation I’m going to show you how you can avoid analysis paralysis, pointless discussions, common design pitfalls and creating overengineered, often totally unnecessary code. Together, we’ll bridge the gap between tactical modeling and true business drivers.

closepopup
Mariusz KapczyńskiStaff Test Automation Engineer / Huuuge Games

Od ponad 10 lat jestem związany z testami i ich automatyzacją. Przez ten czas miałem okazję poznać wiele gałęzi związanych z IT (Telco, FinTech, Automotive, GameDev) i zajmować się procesami wdrażania jakości dla różnorodnych systemów. Obecnie od prawie 7 lat zajmuje się testami automatycznymi wraz z architekturą, dedykowane aplikacjom webowym i backendowym. Prelegent na konferencjach test:fest 2023, Conselenium 2022 oraz na meetupach ŁuczniczQA

"Zostań QA 2.0 - QA w udanej transformacji procesów testowych"

Mariusz KapczyńskiStaff Test Automation Engineer / Huuuge Games

Od ponad 10 lat jestem związany z testami i ich automatyzacją. Przez ten czas miałem okazję poznać wiele gałęzi związanych z IT (Telco, FinTech, Automotive, GameDev) i zajmować się procesami wdrażania jakości dla różnorodnych systemów. Obecnie od prawie 7 lat zajmuje się testami automatycznymi wraz z architekturą, dedykowane aplikacjom webowym i backendowym. Prelegent na konferencjach test:fest 2023, Conselenium 2022 oraz na meetupach ŁuczniczQA

"Zostań QA 2.0 - QA w udanej transformacji procesów testowych"

closepopup
Joanna WachowiakSenior Test Automation Engineer / Huuuge Games

Senior Test Automation Engineer z wieloletnim doświadczeniem w obszarach rozwiązań sieciowych i systemów enterprise. Ma wieloletnie doświadczenie w automatyzacji testów, rekrutacji i koordynowania zespołów testowych. Prywatnie mama trójki dzieci, miłośniczka klocków Lego i niebanalnych podróży

"Zostań QA 2.0 - QA w udanej transformacji procesów testowych"

Joanna WachowiakSenior Test Automation Engineer / Huuuge Games

Senior Test Automation Engineer z wieloletnim doświadczeniem w obszarach rozwiązań sieciowych i systemów enterprise. Ma wieloletnie doświadczenie w automatyzacji testów, rekrutacji i koordynowania zespołów testowych. Prywatnie mama trójki dzieci, miłośniczka klocków Lego i niebanalnych podróży

"Zostań QA 2.0 - QA w udanej transformacji procesów testowych"

closepopup
Mateusz BłochSenior Quality Assurance Engineer / VML

Quality Assurance Engineer z 5 letnim doświadczeniem. Obecnie pracuje w VML, gdzie zajmuje się jakością oprogramowania oraz optymalizacją procesów jego wytwarzania. Orędownik wykorzystywania sztucznej inteligencji w codziennej pracy testera. Prywatnie fan gier komputerowych oraz jazdy rowerem.

"Praktyczne przykłady użycia AI w codziennej pracy QA"

W mojej prezentacji "Praktyczne przykłady użycia AI w codziennej pracy QA" omówię, jakie korzyści przynosi użycie narzędzi AI w procesie testowania oprogramowania. Wyjaśnię, jakie problemy można rozwiązać dzięki wykorzystaniu GitHub Copilot i OpenAI API oraz przedstawię praktyczne przykłady ich zastosowania w naszej codziennej pracy. Podczas prezentacji omówimy również wyzwania i ograniczenia, które mogą pojawić się podczas korzystania z narzędzi AI. W mojej prezentacji będę skupiał się na praktycznych aspektach użycia AI w pracy QA. Przedstawię przykłady, jak narzędzia AI mogą pomóc nam w tworzeniu testów automatycznych czy dokumentacji. Oprócz tego, podzielę się swoimi spostrzeżeniami na temat potencjalnego wpływu AI na naszą pracę, w tym na korzyści i ograniczenia stosowania sztucznej inteligencji w pracy QA. Podczas prezentacji będę korzystał z różnych narzędzi, aby pokazać praktyczne zastosowanie AI w pracy QA. Będę wykorzystywał przykłady kodu, wizualizacje oraz raporty, aby zilustrować, jakie korzyści przynosi użycie GitHub Copilot i OpenAI API w naszej codziennej pracy. Podsumowując, moja prezentacja pokaże, jakie korzyści przynosi użycie narzędzi AI w pracy QA. Będę przedstawiał praktyczne przykłady, jak mogą one pomóc w tworzeniu testów automatycznych i dokumentacji, a także omówię wyzwania i ograniczenia, które mogą się pojawić podczas korzystania z tej technologii. Moim celem jest pokazanie, jak AI może pomóc w pracy QA i jak możemy wykorzystać te narzędzia w naszej codziennej pracy. *Z racji tego, że rozwój AI w ostatnim czasie jest mocno dynamiczny to narzędzia mogą się lekko zmienić. planuje skupić się na praktycznych przykładach, od jakichś prostszych po coś trochę bardziej skomplikowanego. Pomoc w dokumentacji czy automatyzacji testów.

Mateusz BłochSenior Quality Assurance Engineer / VML

Quality Assurance Engineer z 5 letnim doświadczeniem. Obecnie pracuje w VML, gdzie zajmuje się jakością oprogramowania oraz optymalizacją procesów jego wytwarzania. Orędownik wykorzystywania sztucznej inteligencji w codziennej pracy testera. Prywatnie fan gier komputerowych oraz jazdy rowerem.

"Praktyczne przykłady użycia AI w codziennej pracy QA"

W mojej prezentacji "Praktyczne przykłady użycia AI w codziennej pracy QA" omówię, jakie korzyści przynosi użycie narzędzi AI w procesie testowania oprogramowania. Wyjaśnię, jakie problemy można rozwiązać dzięki wykorzystaniu GitHub Copilot i OpenAI API oraz przedstawię praktyczne przykłady ich zastosowania w naszej codziennej pracy. Podczas prezentacji omówimy również wyzwania i ograniczenia, które mogą pojawić się podczas korzystania z narzędzi AI. W mojej prezentacji będę skupiał się na praktycznych aspektach użycia AI w pracy QA. Przedstawię przykłady, jak narzędzia AI mogą pomóc nam w tworzeniu testów automatycznych czy dokumentacji. Oprócz tego, podzielę się swoimi spostrzeżeniami na temat potencjalnego wpływu AI na naszą pracę, w tym na korzyści i ograniczenia stosowania sztucznej inteligencji w pracy QA. Podczas prezentacji będę korzystał z różnych narzędzi, aby pokazać praktyczne zastosowanie AI w pracy QA. Będę wykorzystywał przykłady kodu, wizualizacje oraz raporty, aby zilustrować, jakie korzyści przynosi użycie GitHub Copilot i OpenAI API w naszej codziennej pracy. Podsumowując, moja prezentacja pokaże, jakie korzyści przynosi użycie narzędzi AI w pracy QA. Będę przedstawiał praktyczne przykłady, jak mogą one pomóc w tworzeniu testów automatycznych i dokumentacji, a także omówię wyzwania i ograniczenia, które mogą się pojawić podczas korzystania z tej technologii. Moim celem jest pokazanie, jak AI może pomóc w pracy QA i jak możemy wykorzystać te narzędzia w naszej codziennej pracy. *Z racji tego, że rozwój AI w ostatnim czasie jest mocno dynamiczny to narzędzia mogą się lekko zmienić. planuje skupić się na praktycznych przykładach, od jakichś prostszych po coś trochę bardziej skomplikowanego. Pomoc w dokumentacji czy automatyzacji testów.

closepopup
Adam Romanprofesor uczelni (UJ), wiceprezes zarządu (SJSI)

Adam Roman – informatyk, pracownik naukowy w Instytucie Informatyki i Matematyki Komputerowej Uniwersytetu Jagiellońskiego, gdzie kieruje Zakładem Inżynierii Oprogramowania. Ekspert w zakresie inżynierii jakości oprogramowania. Jako reprezentant UJ, w ramach ISO bierze udział w pracach nad normą ISO 29119 – Software Testing Standard. Współautor sylabusów ISTQB: Poziom podstawowy, Analityk testów oraz Techniczny analityk testów. Autor wielu artykułów oraz książek z zakresu testowania oprogramowania. Prelegent na wielu konferencjach, m.in. EuroSTAR, Testwarez, Code Europe. Wiceprezes zarządu Stowarzyszenia Jakości Systemów Informatycznych.

"Dlaczego AI nigdy nie zastąpi ludzi w IT?"

W swoim wystąpieniu omówię kluczowe aspekty, które sprawiają, że sztuczna inteligencja (AI) mimo swoich zaawansowanych możliwości, nie jest i - co ważniejsze - nigdy nie będzie (!) w stanie całkowicie zastąpić ludzkiej pracy, szczególnie w kontekście tworzenia i testowania oprogramowania. Tę być może dla wielu kontrowersyjną tezę poprę argumentami z zakresu nauk ścisłych, a także filozofii. Argumentacja będzie oparta na głębokich i wysoce nietrywialnych rezultatach z zakresu logiki i ogólnej metodologii nauk, ale przedstawię ją w sposób zrozumiały dla każdego, ponieważ idee stojące za tą argumentacją są bardzo proste do zrozumienia.

Adam Romanprofesor uczelni (UJ), wiceprezes zarządu (SJSI)

Adam Roman – informatyk, pracownik naukowy w Instytucie Informatyki i Matematyki Komputerowej Uniwersytetu Jagiellońskiego, gdzie kieruje Zakładem Inżynierii Oprogramowania. Ekspert w zakresie inżynierii jakości oprogramowania. Jako reprezentant UJ, w ramach ISO bierze udział w pracach nad normą ISO 29119 – Software Testing Standard. Współautor sylabusów ISTQB: Poziom podstawowy, Analityk testów oraz Techniczny analityk testów. Autor wielu artykułów oraz książek z zakresu testowania oprogramowania. Prelegent na wielu konferencjach, m.in. EuroSTAR, Testwarez, Code Europe. Wiceprezes zarządu Stowarzyszenia Jakości Systemów Informatycznych.

"Dlaczego AI nigdy nie zastąpi ludzi w IT?"

W swoim wystąpieniu omówię kluczowe aspekty, które sprawiają, że sztuczna inteligencja (AI) mimo swoich zaawansowanych możliwości, nie jest i - co ważniejsze - nigdy nie będzie (!) w stanie całkowicie zastąpić ludzkiej pracy, szczególnie w kontekście tworzenia i testowania oprogramowania. Tę być może dla wielu kontrowersyjną tezę poprę argumentami z zakresu nauk ścisłych, a także filozofii. Argumentacja będzie oparta na głębokich i wysoce nietrywialnych rezultatach z zakresu logiki i ogólnej metodologii nauk, ale przedstawię ją w sposób zrozumiały dla każdego, ponieważ idee stojące za tą argumentacją są bardzo proste do zrozumienia.

closepopup
Maks OperlejnMachine Learning Engineer / deepsense.ai

Jestem absolwentem Informatyki i Uczenia Maszynowego na Politechnice Gdańskiej, obecnie pracuję jako Machine Learning Engineer w firmie deepsense.ai. Zawodowo i prywatnie skupiam się głównie na dużych modelach językowych i ich szerokim zastosowaniu. Zajmuję się wdrażaniem spersonalizowanych systemów RAG (wykorzystując zarówno modele komercyjne, jak i open-source), a także opracowywaniem i testowaniem agentów programujących. Współpracowałem także z twórcami biblioteki LangChain, skupiając się na kwestiach związanych z prywatnością danych wejściowych dla modeli językowych. Poza pracą odczuwam ciągłą potrzebę poznawania nowych kultur - przejawia się to głównie w podróżach i nauce języków obcych. Dodatkowo, kompulsywnie kupuję książki, na których czytanie często brakuje mi czasu 📚.

"LLM 101 - wprowadzenie do świata modeli językowych"

Nieustający hype na wielkie modele językowe (LLM) i ich niewątpliwa użyteczność sprawiły, że dla wielu ludzi korzystanie z nich stało się codziennością. Studenci z pomocą ChataGPT piszą swoje prace magisterskie, amatorzy kuchni uczą się piec chleb (co, szczerze mówiąc, niezbyt polecam), a ja sam upewniam się, że nie popełniłem głupich błędów stylistycznych w tym opisie. W świecie programistów, modele od OpenAI i konkurencji są użyteczne do rozwiązywania prostych zadań - Stack Overflow nie ma już monopolu w tym zakresie. Co więcej, Dolina Krzemowa i nie tylko, pełne są startupów, które - z większym lub mniejszym sukcesem - zalewają rynek produktami z "AI" w nazwie.

Mimo powszechnej obecności LLM w naszym otoczeniu (a szczególnie na LinkedIn, ugh 🙄), niewielki odsetek ludzi faktycznie wie, co kryje się za ich działaniem. Spróbuję zatem zarysować ten temat i odpowiedzieć na kilka kluczowych pytań:
• Jak działa architektura uczenia głębokiego będąca podstawą każdego LLMa (Transformery, multi-head attention)
• Dlaczego LLM tak dobrze wchodzi w interakcję z użytkownikiem, formatując odpowiedzi odpowiednio do potrzeb, a jednocześnie potrafi unikać pytań natury… mało etycznej? (RLHF)
• Czy możemy wytrenować własny LLM do naszych celów? (modele open-source, fine-tuning)
• Jak LLM może korzystać ze źródeł zewnętrznych (np. z internetu lub firmowego Confluence), nie mając do nich dostępu w czasie treningu? (bardzo krótko o RAG)

Postaram się przedstawić ten temat w sposób jasny, intuicyjny i bez wchodzenia w złożoną matmę - zapraszam!

Maks OperlejnMachine Learning Engineer / deepsense.ai

Jestem absolwentem Informatyki i Uczenia Maszynowego na Politechnice Gdańskiej, obecnie pracuję jako Machine Learning Engineer w firmie deepsense.ai. Zawodowo i prywatnie skupiam się głównie na dużych modelach językowych i ich szerokim zastosowaniu. Zajmuję się wdrażaniem spersonalizowanych systemów RAG (wykorzystując zarówno modele komercyjne, jak i open-source), a także opracowywaniem i testowaniem agentów programujących. Współpracowałem także z twórcami biblioteki LangChain, skupiając się na kwestiach związanych z prywatnością danych wejściowych dla modeli językowych. Poza pracą odczuwam ciągłą potrzebę poznawania nowych kultur - przejawia się to głównie w podróżach i nauce języków obcych. Dodatkowo, kompulsywnie kupuję książki, na których czytanie często brakuje mi czasu 📚.

"LLM 101 - wprowadzenie do świata modeli językowych"

Nieustający hype na wielkie modele językowe (LLM) i ich niewątpliwa użyteczność sprawiły, że dla wielu ludzi korzystanie z nich stało się codziennością. Studenci z pomocą ChataGPT piszą swoje prace magisterskie, amatorzy kuchni uczą się piec chleb (co, szczerze mówiąc, niezbyt polecam), a ja sam upewniam się, że nie popełniłem głupich błędów stylistycznych w tym opisie. W świecie programistów, modele od OpenAI i konkurencji są użyteczne do rozwiązywania prostych zadań - Stack Overflow nie ma już monopolu w tym zakresie. Co więcej, Dolina Krzemowa i nie tylko, pełne są startupów, które - z większym lub mniejszym sukcesem - zalewają rynek produktami z "AI" w nazwie.

Mimo powszechnej obecności LLM w naszym otoczeniu (a szczególnie na LinkedIn, ugh 🙄), niewielki odsetek ludzi faktycznie wie, co kryje się za ich działaniem. Spróbuję zatem zarysować ten temat i odpowiedzieć na kilka kluczowych pytań:
• Jak działa architektura uczenia głębokiego będąca podstawą każdego LLMa (Transformery, multi-head attention)
• Dlaczego LLM tak dobrze wchodzi w interakcję z użytkownikiem, formatując odpowiedzi odpowiednio do potrzeb, a jednocześnie potrafi unikać pytań natury… mało etycznej? (RLHF)
• Czy możemy wytrenować własny LLM do naszych celów? (modele open-source, fine-tuning)
• Jak LLM może korzystać ze źródeł zewnętrznych (np. z internetu lub firmowego Confluence), nie mając do nich dostępu w czasie treningu? (bardzo krótko o RAG)

Postaram się przedstawić ten temat w sposób jasny, intuicyjny i bez wchodzenia w złożoną matmę - zapraszam!

closepopup

Call 4 Papers

To miejsce czeka na Ciebie

Prelekcje bITconf 2024

O czym będziemy rozmawiać na tegorocznej konferencji, na czterech ścieżkach tematycznych.

Sprawdź agendę konferencji

Ceny wejściówek

Early Bird

PLN256/ osoba
  • Prelekcje
  • networking
  • IT
do 13.08.2024

Regular

PLN384/ osoba
  • Prelekcje
  • networking
  • IT

Last minute

PLN512/ osoba
  • Prelekcje
  • networking
  • IT

Weź udział w największej konferencji IT w naszym regionie.

Lokalizacja

Bydgoskie Centrum Targowo – Wystawiennicze

ul. Gdańska 187
85-674 Bydgoszcz
Kujawy Pomorze