Programowanie i Architektura

Podejmujemy tematykę programowania i architektury systemów IT. Przedmiotem naszych zainteresowań będą zarówno zagadnienia uniwersalne niezależne od konkretnego języka programwania jak i te wchodzące w detale programowania na platformach: Java, .NET, Python, JavaScript, PHP.

Jakość i infrastruktura

Podejmujemy tematykę Zapewniania Jakości systemów IT jak i wspomagania procesów ich tworzenia i utrzymania za pomocą podejścia DevSecOps z wykorzystaniem rozwiązań Cloud i onPrem.

Uczestników

0

Dzień + 1 dzień warsztatowy

0

Prelegentów

0

Równoległe ściezki

0

Prelegenci

Jarosław Pałka Photo
Jarosław PałkaSenior Staff Engineer / Neo4j

Od ponad 20 lat w branży IT jako administrator baz danych, programista, architekt, manager
i „inżynier od spraw katastrof”.
Brałem udział w małych, średnich i nonsensownie dużych projektach, prowadzonych
zgodnie zasadami „waterfall”, Agile oraz przy braku jakichkolwiek metodyk - z tym samym
zawsze skutkiem. Wszystko to doprowadziło mnie do wniosku, że nieważne co robisz,
ważne byś robił to dobrze, w najprostszy z możliwych sposobów i przy użyciu właściwych
narzędzi, które wykonają pracę za Ciebie. W międzyczasie dałem się porwać ideom TDD
oraz Software Craftmanship, do granic możliwości wyeksploatować tak piękne w swej
prostocie pomysły jak REST i NoSQL. Porzuciłem je, by zgłębić tajniki „system thinking” i
zachwycić się siłą, jaką niesie ze sobą „metafora” oraz by odkryć, że rządzą nami te same
prawa „natury”.
Niepokorny wyznawca kościoła JVM, badacz bytecode’u i JIT oraz wszelkiej maści
parserów, interpreterów i kompilatorów. Na co dzień walczący o lepszą wydajność w Neo4j.
Od czasu do czasu można usłyszeć moje niskiej jakości żarty na temat architektury na
konferencjach w Polsce.
W wolnych chwilach trener w Symentis, autor bloga na
http://geekyprimitives.wordpress.com/ oraz samozwańczy dyktator w radach programowych
wielu konferencji.

"Z manuskryptów starożytnych inżynierów - bazy danych"

Kolejne warstwy frameworków, abstrakcji i pudru. Pozwalają nam dostarczać skomplikowane rozwiązania w skończonym czasie. Nasi dziadkowie mogliby nam pozazdrościć łatwości z jaką udaje nam się budować złożone systemy.
Jednak często zapominamy o tym jak wiele zawdzięczamy starożytnym inżynierom. Spróbujmy poznać ich tajemnice, zapisane w manuskryptach.
Bazy danych są sercem naszych systemów, gdyż dane są krwiobiegiem naszych organizacji.
Zabiorę Was w cudowną i nostalgiczną podróż przez świat architektury baz danych. Rozłożymy bazy danych na poszczególne komponenty by w pełni docenić piękno tych cudów inżynierii.
Zaczniemy od szybkiego kursu historii najnowszej, czyli dlaczego i kiedy pojawiła się koncepcja baz danych.By następnie przejść do technik organizacji danych na dysku. Poznać tajniki zarządzanie pamięcią i techniki zapewnienia izolacji zapisów czyli locking protocols.
Dowiesz się jak bazy danych zapewniają spójność i trwałość danych z pomocą "transaction logs" i "write-ahead logs". Nie pominiemy też dyskusji o indeksach (w tym B+tree), wykonywaniu zapytań i optymalizacji planów zapytań.
Mam nadzieję, że ta prezentacji pozwoli wam lepiej zrozumieć jak budować aplikacje i optymalizować wydajność systemów. dzięki zrozumieniu jakie prawa rządzą światem baz danych.Będzie też czas na filozoficzne rozmyślania o sensie istnienia i odpowiedź na pytanie dokąd zmierzamy.

Jarosław Pałka Photo
Jarosław PałkaSenior Staff Engineer / Neo4j

Od ponad 20 lat w branży IT jako administrator baz danych, programista, architekt, manager
i „inżynier od spraw katastrof”.
Brałem udział w małych, średnich i nonsensownie dużych projektach, prowadzonych
zgodnie zasadami „waterfall”, Agile oraz przy braku jakichkolwiek metodyk - z tym samym
zawsze skutkiem. Wszystko to doprowadziło mnie do wniosku, że nieważne co robisz,
ważne byś robił to dobrze, w najprostszy z możliwych sposobów i przy użyciu właściwych
narzędzi, które wykonają pracę za Ciebie. W międzyczasie dałem się porwać ideom TDD
oraz Software Craftmanship, do granic możliwości wyeksploatować tak piękne w swej
prostocie pomysły jak REST i NoSQL. Porzuciłem je, by zgłębić tajniki „system thinking” i
zachwycić się siłą, jaką niesie ze sobą „metafora” oraz by odkryć, że rządzą nami te same
prawa „natury”.
Niepokorny wyznawca kościoła JVM, badacz bytecode’u i JIT oraz wszelkiej maści
parserów, interpreterów i kompilatorów. Na co dzień walczący o lepszą wydajność w Neo4j.
Od czasu do czasu można usłyszeć moje niskiej jakości żarty na temat architektury na
konferencjach w Polsce.
W wolnych chwilach trener w Symentis, autor bloga na
http://geekyprimitives.wordpress.com/ oraz samozwańczy dyktator w radach programowych
wielu konferencji.

"Z manuskryptów starożytnych inżynierów - bazy danych"

Kolejne warstwy frameworków, abstrakcji i pudru. Pozwalają nam dostarczać skomplikowane rozwiązania w skończonym czasie. Nasi dziadkowie mogliby nam pozazdrościć łatwości z jaką udaje nam się budować złożone systemy.
Jednak często zapominamy o tym jak wiele zawdzięczamy starożytnym inżynierom. Spróbujmy poznać ich tajemnice, zapisane w manuskryptach.
Bazy danych są sercem naszych systemów, gdyż dane są krwiobiegiem naszych organizacji.
Zabiorę Was w cudowną i nostalgiczną podróż przez świat architektury baz danych. Rozłożymy bazy danych na poszczególne komponenty by w pełni docenić piękno tych cudów inżynierii.
Zaczniemy od szybkiego kursu historii najnowszej, czyli dlaczego i kiedy pojawiła się koncepcja baz danych.By następnie przejść do technik organizacji danych na dysku. Poznać tajniki zarządzanie pamięcią i techniki zapewnienia izolacji zapisów czyli locking protocols.
Dowiesz się jak bazy danych zapewniają spójność i trwałość danych z pomocą "transaction logs" i "write-ahead logs". Nie pominiemy też dyskusji o indeksach (w tym B+tree), wykonywaniu zapytań i optymalizacji planów zapytań.
Mam nadzieję, że ta prezentacji pozwoli wam lepiej zrozumieć jak budować aplikacje i optymalizować wydajność systemów. dzięki zrozumieniu jakie prawa rządzą światem baz danych.Będzie też czas na filozoficzne rozmyślania o sensie istnienia i odpowiedź na pytanie dokąd zmierzamy.

closepopup
Łukasz ReszkeSoftware Engineer / Arkency

Na codzień pracuje w @arkency gdzie ratujemy projekty klasy legacy i szerzymy wiedzę o dobrych praktykach w świecie Railsowym. Wierzę w to że zrozumienie problemu i zaprojektowanie modelu dostosowanego do jego rozwiązania pozwala na stworzenie dobrego produktu dla biznesu. Produktu, który będzie zrozumiały i latwy do rozwijania dla innych programistów. Stad naturalnie ciągnie mnie do takich technik jak DDD i EventStorming.

"Zapomniana sztuka programowania obiektowego"

W bezkresie narzędzi i frameworków których musimy się uczyć jako programiści zdarza nam się zapomnieć o fundamentach. Jednym z nich jest powoli zapominana sztuka programowania obiektowego. Na nowo odkryjemy kanony jej piękna. Razem przypomnimy sobie zasady, którymi warto się kierować aby nie popełniać programistycznego faux pas. Nie będziemy ich cytować niczym na rozmowie rekrutacyjnej. Zamiast tego skupimy się na konkretnych przykładach.

Łukasz ReszkeSoftware Engineer / Arkency

Na codzień pracuje w @arkency gdzie ratujemy projekty klasy legacy i szerzymy wiedzę o dobrych praktykach w świecie Railsowym. Wierzę w to że zrozumienie problemu i zaprojektowanie modelu dostosowanego do jego rozwiązania pozwala na stworzenie dobrego produktu dla biznesu. Produktu, który będzie zrozumiały i latwy do rozwijania dla innych programistów. Stad naturalnie ciągnie mnie do takich technik jak DDD i EventStorming.

"Zapomniana sztuka programowania obiektowego"

W bezkresie narzędzi i frameworków których musimy się uczyć jako programiści zdarza nam się zapomnieć o fundamentach. Jednym z nich jest powoli zapominana sztuka programowania obiektowego. Na nowo odkryjemy kanony jej piękna. Razem przypomnimy sobie zasady, którymi warto się kierować aby nie popełniać programistycznego faux pas. Nie będziemy ich cytować niczym na rozmowie rekrutacyjnej. Zamiast tego skupimy się na konkretnych przykładach.

closepopup
Mateusz WojczalCTO / Escola

Full-stack web developer/DevOps od 2005 roku. Zaczynając jako ekspert od ActionScript przez całą swoją karierę zdobywał doświadczenie komercyjne kodując w PHP, JavaScript, Node.js i innych technologiach, o których już nikt nie pamięta, aby ostatecznie wybrać TypeScript jako wszechstronny język. Od samego początku związany z tworzeniem aplikacji i stron internetowych, desktopowych opartych o technologie webowe, a także mało i wielkoformatowych ekspozycji multimedialnych i interaktywnych. Od 2011 założyciel software house Qunabu, od 2019 Chief Technology Officer Escola. Twórca pierwszego headlessowego open sourcewego systemy klasy LMS o nazwie Wellms. Autor podcastów technologicznych Escola DevTalk i Filozofii programowania, promotor dzielenia się wiedzą. Trener warsztatów, Juror hackatonów i wielokrony prelegent konferencji technologicznych. Organizator Gdańsk TypeScript Meetup, Zafascynowany funkcyjnym programowaniem, testowaniem automatycznym, historią programowania i DevOpsem.

"O czym nie powie nam metryka 100% Code Coverage?"

Metryka 100% pokrycia kodu (code coverage) stała się często używanym buzzwordem w świecie rozwoju oprogramowania, sugerującym doskonałą jakość testowania. Jednak warto pamiętać, że osiągnięcie pełnego pokrycia kodu nie gwarantuje, że wszystkie możliwe przypadki testowe zostały uwzględnione. Skupienie się wyłącznie na metryce 100% code coverage może prowadzić do nadmiernego skomplikowania testów lub tworzenia testów, które w rzeczywistości nie sprawdzają istotnych aspektów kodu. Ważne jest, aby używać metryki code coverage jako jednego z wielu wskaźników jakości testów, równocześnie skupiając się na znalezieniu i eliminowaniu rzeczywistych słabych punktów w testowaniu i zapewnieniu kompleksowego sprawdzenia logiki i funkcjonalności aplikacji.

Testy mutacyjne to rodzaj testów oprogramowania, które polegają na wprowadzaniu celowo wprowadzanych błędów (tzw. mutacji) do kodu programu w celu oceny jakości testów jednostkowych. W ramach testów mutacyjnych, program jest poddawany serii mutacji, a następnie uruchamiane są testy, aby sprawdzić, czy testy wykryją te zmiany.

Fuzz testing, znane również jako testowanie oparte na przypadkowości, to technika testowania oprogramowania, która polega na wprowadzaniu losowych, zniekształconych lub nieprawidłowych danych wejściowych do programu w celu wykrycia błędów lub luk w zabezpieczeniach. Fuzz testing pozwala na zautomatyzowane generowanie ogromnej liczby testów, co może pomóc w wykryciu trudno dostrzegalnych błędów w oprogramowaniu.

Poziom średnio zaawansowany

Mateusz WojczalCTO / Escola

Full-stack web developer/DevOps od 2005 roku. Zaczynając jako ekspert od ActionScript przez całą swoją karierę zdobywał doświadczenie komercyjne kodując w PHP, JavaScript, Node.js i innych technologiach, o których już nikt nie pamięta, aby ostatecznie wybrać TypeScript jako wszechstronny język. Od samego początku związany z tworzeniem aplikacji i stron internetowych, desktopowych opartych o technologie webowe, a także mało i wielkoformatowych ekspozycji multimedialnych i interaktywnych. Od 2011 założyciel software house Qunabu, od 2019 Chief Technology Officer Escola. Twórca pierwszego headlessowego open sourcewego systemy klasy LMS o nazwie Wellms. Autor podcastów technologicznych Escola DevTalk i Filozofii programowania, promotor dzielenia się wiedzą. Trener warsztatów, Juror hackatonów i wielokrony prelegent konferencji technologicznych. Organizator Gdańsk TypeScript Meetup, Zafascynowany funkcyjnym programowaniem, testowaniem automatycznym, historią programowania i DevOpsem.

"O czym nie powie nam metryka 100% Code Coverage?"

Metryka 100% pokrycia kodu (code coverage) stała się często używanym buzzwordem w świecie rozwoju oprogramowania, sugerującym doskonałą jakość testowania. Jednak warto pamiętać, że osiągnięcie pełnego pokrycia kodu nie gwarantuje, że wszystkie możliwe przypadki testowe zostały uwzględnione. Skupienie się wyłącznie na metryce 100% code coverage może prowadzić do nadmiernego skomplikowania testów lub tworzenia testów, które w rzeczywistości nie sprawdzają istotnych aspektów kodu. Ważne jest, aby używać metryki code coverage jako jednego z wielu wskaźników jakości testów, równocześnie skupiając się na znalezieniu i eliminowaniu rzeczywistych słabych punktów w testowaniu i zapewnieniu kompleksowego sprawdzenia logiki i funkcjonalności aplikacji.

Testy mutacyjne to rodzaj testów oprogramowania, które polegają na wprowadzaniu celowo wprowadzanych błędów (tzw. mutacji) do kodu programu w celu oceny jakości testów jednostkowych. W ramach testów mutacyjnych, program jest poddawany serii mutacji, a następnie uruchamiane są testy, aby sprawdzić, czy testy wykryją te zmiany.

Fuzz testing, znane również jako testowanie oparte na przypadkowości, to technika testowania oprogramowania, która polega na wprowadzaniu losowych, zniekształconych lub nieprawidłowych danych wejściowych do programu w celu wykrycia błędów lub luk w zabezpieczeniach. Fuzz testing pozwala na zautomatyzowane generowanie ogromnej liczby testów, co może pomóc w wykryciu trudno dostrzegalnych błędów w oprogramowaniu.

Poziom średnio zaawansowany

closepopup
Piotr PrzybyłSenior Developer Advocate

Software Gardener, Java Champion, Testcontainers Community Champion.

"GenAI, vector / semantic / hybrid search, RRF, NLP, LLM, RAG, FUD, FOMO, and other buzzwords"

Here you are: a Java developer with some experience, and everyone around seems to be talking about LLM, NLP, RAG and other AI related stuff. From one end you’re somewhat afraid of this, because JPA is nowhere among these acronyms and they say AI might take your job next month. OTOH you’re also tired, because every news, every social platform is bombarding you with all flavours of AI so much that you’re scared to open your fridge (who knows, AI might be among groceries now?)

Wouldn’t it be great to have the buzzwords deciphered, so that you can reason about them without having a PhD in AI or data science first?

Certainly! Please join me for this talk, fellow Java developer, to see how technologies you already know (like Elasticsearch), and some maths, can help you tackle all this with no big fear.

Piotr PrzybyłSenior Developer Advocate

Software Gardener, Java Champion, Testcontainers Community Champion.

"GenAI, vector / semantic / hybrid search, RRF, NLP, LLM, RAG, FUD, FOMO, and other buzzwords"

Here you are: a Java developer with some experience, and everyone around seems to be talking about LLM, NLP, RAG and other AI related stuff. From one end you’re somewhat afraid of this, because JPA is nowhere among these acronyms and they say AI might take your job next month. OTOH you’re also tired, because every news, every social platform is bombarding you with all flavours of AI so much that you’re scared to open your fridge (who knows, AI might be among groceries now?)

Wouldn’t it be great to have the buzzwords deciphered, so that you can reason about them without having a PhD in AI or data science first?

Certainly! Please join me for this talk, fellow Java developer, to see how technologies you already know (like Elasticsearch), and some maths, can help you tackle all this with no big fear.

closepopup
Paweł PiwoszCloud Solution Architect / Tameshi

DevOps Institute Ambassador. CD.Foundation Ambassador. AWS Community Builder.
Engineer, leader, mentor, speaker.

My focus is on CALMS. I am building better understanding of DevOps as driver for the organization.

I am devoted to Serverless and CI/CD. I authored the framework for design the CI/CD: https://www.cicd.run/

Host of Last Week In IT and DevOps In Agile Way podcasts, and DevOps In Agile Way Youtube channel.

"Plan CI/CD on the Enterprise level!"

CI/CD seems to be simple. But let's take a step back, and look at it from a helicopter view.
Let's think about the design CI/CD processes for the project, team, even organization. Let's go through "architecture of CI/CD". What areas should we cover? How to talk with Stakeholders about CI/CD when we design the bloodstream of DevOps driven Organization?

Paweł PiwoszCloud Solution Architect / Tameshi

DevOps Institute Ambassador. CD.Foundation Ambassador. AWS Community Builder.
Engineer, leader, mentor, speaker.

My focus is on CALMS. I am building better understanding of DevOps as driver for the organization.

I am devoted to Serverless and CI/CD. I authored the framework for design the CI/CD: https://www.cicd.run/

Host of Last Week In IT and DevOps In Agile Way podcasts, and DevOps In Agile Way Youtube channel.

"Plan CI/CD on the Enterprise level!"

CI/CD seems to be simple. But let's take a step back, and look at it from a helicopter view.
Let's think about the design CI/CD processes for the project, team, even organization. Let's go through "architecture of CI/CD". What areas should we cover? How to talk with Stakeholders about CI/CD when we design the bloodstream of DevOps driven Organization?

closepopup
Chris EngelbertDeveloper Advocate

Christoph Engelbert is a developer by heart, with strong bonds to the open source world. As a seasoned speaker on international conferences, he loves to share his experience and ideas, especially in the areas of scalable system architectures and back-end technologies, as well as all things programming languages.

"PostgreSQL on Kubernetes: Dos and Don'ts"

Running databases in containers has been the biggest anti-pattern of the last decade. The world, however, moves on and stateful container workloads become more common, and so do databases in Kubernetes. People love the additional convenience when it comes to deployment, scalability, and operation.

With PostgreSQL on its way to become the world’s most beloved database, there certainly are quite some things to keep in mind when running it on k8s. Let us evaluate the important Dos and especially the Don’ts.

Chris EngelbertDeveloper Advocate

Christoph Engelbert is a developer by heart, with strong bonds to the open source world. As a seasoned speaker on international conferences, he loves to share his experience and ideas, especially in the areas of scalable system architectures and back-end technologies, as well as all things programming languages.

"PostgreSQL on Kubernetes: Dos and Don'ts"

Running databases in containers has been the biggest anti-pattern of the last decade. The world, however, moves on and stateful container workloads become more common, and so do databases in Kubernetes. People love the additional convenience when it comes to deployment, scalability, and operation.

With PostgreSQL on its way to become the world’s most beloved database, there certainly are quite some things to keep in mind when running it on k8s. Let us evaluate the important Dos and especially the Don’ts.

closepopup
Mike WojtynaPrincipal Software Engineer | Trainer / Bottega IT Minds

I'm a software architect with a passion for creating great products 🌱. In my work I combine business and technical skills to deliver outstanding results to my clients. Domain-driven design & Test-driven development are some of my favorite tools. My code is clean and easy to modify, thanks to the modular, loosely coupled design achieved by continuous TDD iterations backed by a deep understanding of business needs.

"My design is better than yours: bridging the gap between tactical modeling and business"

Engineers have a tendency to create emotional connections with their models. At best, this can end up with a lot of pointless discussions, at worst escalate to nearly-religious wars in the defense of ""the only right model”. So… Are we doomed to repeat these nonsensical fights all the time? Fortunately, there’s an entity that can decide which model is better. It’s called business.

During this presentation I’m going to show you how you can avoid analysis paralysis, pointless discussions, common design pitfalls and creating overengineered, often totally unnecessary code. Together, we’ll bridge the gap between tactical modeling and true business drivers.

Mike WojtynaPrincipal Software Engineer | Trainer / Bottega IT Minds

I'm a software architect with a passion for creating great products 🌱. In my work I combine business and technical skills to deliver outstanding results to my clients. Domain-driven design & Test-driven development are some of my favorite tools. My code is clean and easy to modify, thanks to the modular, loosely coupled design achieved by continuous TDD iterations backed by a deep understanding of business needs.

"My design is better than yours: bridging the gap between tactical modeling and business"

Engineers have a tendency to create emotional connections with their models. At best, this can end up with a lot of pointless discussions, at worst escalate to nearly-religious wars in the defense of ""the only right model”. So… Are we doomed to repeat these nonsensical fights all the time? Fortunately, there’s an entity that can decide which model is better. It’s called business.

During this presentation I’m going to show you how you can avoid analysis paralysis, pointless discussions, common design pitfalls and creating overengineered, often totally unnecessary code. Together, we’ll bridge the gap between tactical modeling and true business drivers.

closepopup
Mariusz KapczyńskiStaff Test Automation Engineer / Huuuge Games

Od ponad 10 lat jestem związany z testami i ich automatyzacją. Przez ten czas miałem okazję poznać wiele gałęzi związanych z IT (Telco, FinTech, Automotive, GameDev) i zajmować się procesami wdrażania jakości dla różnorodnych systemów. Obecnie od prawie 7 lat zajmuje się testami automatycznymi wraz z architekturą, dedykowane aplikacjom webowym i backendowym. Prelegent na konferencjach test:fest 2023, Conselenium 2022 oraz na meetupach ŁuczniczQA

"Zostań QA 2.0 - QA w udanej transformacji procesów testowych"

Mariusz KapczyńskiStaff Test Automation Engineer / Huuuge Games

Od ponad 10 lat jestem związany z testami i ich automatyzacją. Przez ten czas miałem okazję poznać wiele gałęzi związanych z IT (Telco, FinTech, Automotive, GameDev) i zajmować się procesami wdrażania jakości dla różnorodnych systemów. Obecnie od prawie 7 lat zajmuje się testami automatycznymi wraz z architekturą, dedykowane aplikacjom webowym i backendowym. Prelegent na konferencjach test:fest 2023, Conselenium 2022 oraz na meetupach ŁuczniczQA

"Zostań QA 2.0 - QA w udanej transformacji procesów testowych"

closepopup
Wojciech BrzezińskiTechnical Product Owner / Eviden ( Grupa Atos)

Od 26 lat pracuje w świecie IT. Na początku swojej kariery zdobywał doświadczenie na różnych stanowiskach związanych z administracją systemami informatycznymi. Od 2014 roku rozwija się w obszarze usług i architektury technicznej dla rozwiązań oferowanych kluczowym klientom Atos i Eviden. Dzięki doświadczeniu zdobytemu w ścisłej współpracy z klientami oraz wiedzy z różnych obszarów IT – od aplikacji po infrastrukturę, łączy świat biznesu z technologiami IT. Zajmuje się także szeroko rozumianym bezpieczeństwem i jego wpływem na architekturę i procesy biznesowe. Obecnie jako właściciel produktu dla chmury Azure odpowiada na potrzeby biznesowe klientów tworząc rozwiązania szyte na miarę.

Cloud Security - Fakty i mity!

Podczas prelekcji opowiem o mocnych i słabych stronach chmury w obszarze bezpieczeństwa, rozprawię się z mitami dotyczącymi problemów bezpieczeństwa związanych z z wdrożeniem chmury. Podpowiem kiedy wybrać chmurę prywatną a kiedy publiczną. Opowiem w czym chmury są lepsze a w czym gorsze od środowisk lokalnych. Jak zbudować bezpieczną architekturę, co chmura na nas wymusza i o co zadbać w obszarach dookoła chmurowych by rozwiązanie było bezpieczne. Na co zwrócić uwagę w obszarach bezpieczeństwa przy wdrożeniu chmury w firmie. Jak chmurę zabezpieczyć w podstawowy sposób na przykładzie Microsoft Azure.

Wojciech BrzezińskiTechnical Product Owner / Eviden ( Grupa Atos)

Od 26 lat pracuje w świecie IT. Na początku swojej kariery zdobywał doświadczenie na różnych stanowiskach związanych z administracją systemami informatycznymi. Od 2014 roku rozwija się w obszarze usług i architektury technicznej dla rozwiązań oferowanych kluczowym klientom Atos i Eviden. Dzięki doświadczeniu zdobytemu w ścisłej współpracy z klientami oraz wiedzy z różnych obszarów IT – od aplikacji po infrastrukturę, łączy świat biznesu z technologiami IT. Zajmuje się także szeroko rozumianym bezpieczeństwem i jego wpływem na architekturę i procesy biznesowe. Obecnie jako właściciel produktu dla chmury Azure odpowiada na potrzeby biznesowe klientów tworząc rozwiązania szyte na miarę.

Cloud Security - Fakty i mity!

Podczas prelekcji opowiem o mocnych i słabych stronach chmury w obszarze bezpieczeństwa, rozprawię się z mitami dotyczącymi problemów bezpieczeństwa związanych z z wdrożeniem chmury. Podpowiem kiedy wybrać chmurę prywatną a kiedy publiczną. Opowiem w czym chmury są lepsze a w czym gorsze od środowisk lokalnych. Jak zbudować bezpieczną architekturę, co chmura na nas wymusza i o co zadbać w obszarach dookoła chmurowych by rozwiązanie było bezpieczne. Na co zwrócić uwagę w obszarach bezpieczeństwa przy wdrożeniu chmury w firmie. Jak chmurę zabezpieczyć w podstawowy sposób na przykładzie Microsoft Azure.

closepopup
Joanna WachowiakSenior Test Automation Engineer / Huuuge Games

Senior Test Automation Engineer z wieloletnim doświadczeniem w obszarach rozwiązań sieciowych i systemów enterprise. Ma wieloletnie doświadczenie w automatyzacji testów, rekrutacji i koordynowania zespołów testowych. Prywatnie mama trójki dzieci, miłośniczka klocków Lego i niebanalnych podróży

"Zostań QA 2.0 - QA w udanej transformacji procesów testowych"

Joanna WachowiakSenior Test Automation Engineer / Huuuge Games

Senior Test Automation Engineer z wieloletnim doświadczeniem w obszarach rozwiązań sieciowych i systemów enterprise. Ma wieloletnie doświadczenie w automatyzacji testów, rekrutacji i koordynowania zespołów testowych. Prywatnie mama trójki dzieci, miłośniczka klocków Lego i niebanalnych podróży

"Zostań QA 2.0 - QA w udanej transformacji procesów testowych"

closepopup
Mateusz BłochSenior Quality Assurance Engineer / VML

Quality Assurance Engineer z 5 letnim doświadczeniem. Obecnie pracuje w VML, gdzie zajmuje się jakością oprogramowania oraz optymalizacją procesów jego wytwarzania. Orędownik wykorzystywania sztucznej inteligencji w codziennej pracy testera. Prywatnie fan gier komputerowych oraz jazdy rowerem.

"Praktyczne przykłady użycia AI w codziennej pracy QA"

W mojej prezentacji "Praktyczne przykłady użycia AI w codziennej pracy QA" omówię, jakie korzyści przynosi użycie narzędzi AI w procesie testowania oprogramowania. Wyjaśnię, jakie problemy można rozwiązać dzięki wykorzystaniu GitHub Copilot i OpenAI API oraz przedstawię praktyczne przykłady ich zastosowania w naszej codziennej pracy. Podczas prezentacji omówimy również wyzwania i ograniczenia, które mogą pojawić się podczas korzystania z narzędzi AI. W mojej prezentacji będę skupiał się na praktycznych aspektach użycia AI w pracy QA. Przedstawię przykłady, jak narzędzia AI mogą pomóc nam w tworzeniu testów automatycznych czy dokumentacji. Oprócz tego, podzielę się swoimi spostrzeżeniami na temat potencjalnego wpływu AI na naszą pracę, w tym na korzyści i ograniczenia stosowania sztucznej inteligencji w pracy QA. Podczas prezentacji będę korzystał z różnych narzędzi, aby pokazać praktyczne zastosowanie AI w pracy QA. Będę wykorzystywał przykłady kodu, wizualizacje oraz raporty, aby zilustrować, jakie korzyści przynosi użycie GitHub Copilot i OpenAI API w naszej codziennej pracy. Podsumowując, moja prezentacja pokaże, jakie korzyści przynosi użycie narzędzi AI w pracy QA. Będę przedstawiał praktyczne przykłady, jak mogą one pomóc w tworzeniu testów automatycznych i dokumentacji, a także omówię wyzwania i ograniczenia, które mogą się pojawić podczas korzystania z tej technologii. Moim celem jest pokazanie, jak AI może pomóc w pracy QA i jak możemy wykorzystać te narzędzia w naszej codziennej pracy. *Z racji tego, że rozwój AI w ostatnim czasie jest mocno dynamiczny to narzędzia mogą się lekko zmienić. planuje skupić się na praktycznych przykładach, od jakichś prostszych po coś trochę bardziej skomplikowanego. Pomoc w dokumentacji czy automatyzacji testów.

Mateusz BłochSenior Quality Assurance Engineer / VML

Quality Assurance Engineer z 5 letnim doświadczeniem. Obecnie pracuje w VML, gdzie zajmuje się jakością oprogramowania oraz optymalizacją procesów jego wytwarzania. Orędownik wykorzystywania sztucznej inteligencji w codziennej pracy testera. Prywatnie fan gier komputerowych oraz jazdy rowerem.

"Praktyczne przykłady użycia AI w codziennej pracy QA"

W mojej prezentacji "Praktyczne przykłady użycia AI w codziennej pracy QA" omówię, jakie korzyści przynosi użycie narzędzi AI w procesie testowania oprogramowania. Wyjaśnię, jakie problemy można rozwiązać dzięki wykorzystaniu GitHub Copilot i OpenAI API oraz przedstawię praktyczne przykłady ich zastosowania w naszej codziennej pracy. Podczas prezentacji omówimy również wyzwania i ograniczenia, które mogą pojawić się podczas korzystania z narzędzi AI. W mojej prezentacji będę skupiał się na praktycznych aspektach użycia AI w pracy QA. Przedstawię przykłady, jak narzędzia AI mogą pomóc nam w tworzeniu testów automatycznych czy dokumentacji. Oprócz tego, podzielę się swoimi spostrzeżeniami na temat potencjalnego wpływu AI na naszą pracę, w tym na korzyści i ograniczenia stosowania sztucznej inteligencji w pracy QA. Podczas prezentacji będę korzystał z różnych narzędzi, aby pokazać praktyczne zastosowanie AI w pracy QA. Będę wykorzystywał przykłady kodu, wizualizacje oraz raporty, aby zilustrować, jakie korzyści przynosi użycie GitHub Copilot i OpenAI API w naszej codziennej pracy. Podsumowując, moja prezentacja pokaże, jakie korzyści przynosi użycie narzędzi AI w pracy QA. Będę przedstawiał praktyczne przykłady, jak mogą one pomóc w tworzeniu testów automatycznych i dokumentacji, a także omówię wyzwania i ograniczenia, które mogą się pojawić podczas korzystania z tej technologii. Moim celem jest pokazanie, jak AI może pomóc w pracy QA i jak możemy wykorzystać te narzędzia w naszej codziennej pracy. *Z racji tego, że rozwój AI w ostatnim czasie jest mocno dynamiczny to narzędzia mogą się lekko zmienić. planuje skupić się na praktycznych przykładach, od jakichś prostszych po coś trochę bardziej skomplikowanego. Pomoc w dokumentacji czy automatyzacji testów.

closepopup
Adam Romanprofesor uczelni (UJ), wiceprezes zarządu (SJSI)

Adam Roman – informatyk, pracownik naukowy w Instytucie Informatyki i Matematyki Komputerowej Uniwersytetu Jagiellońskiego, gdzie kieruje Zakładem Inżynierii Oprogramowania. Ekspert w zakresie inżynierii jakości oprogramowania. Jako reprezentant UJ, w ramach ISO bierze udział w pracach nad normą ISO 29119 – Software Testing Standard. Współautor sylabusów ISTQB: Poziom podstawowy, Analityk testów oraz Techniczny analityk testów. Autor wielu artykułów oraz książek z zakresu testowania oprogramowania. Prelegent na wielu konferencjach, m.in. EuroSTAR, Testwarez, Code Europe. Wiceprezes zarządu Stowarzyszenia Jakości Systemów Informatycznych.

"Dlaczego AI nigdy nie zastąpi ludzi w IT?"

W swoim wystąpieniu omówię kluczowe aspekty, które sprawiają, że sztuczna inteligencja (AI) mimo swoich zaawansowanych możliwości, nie jest i - co ważniejsze - nigdy nie będzie (!) w stanie całkowicie zastąpić ludzkiej pracy, szczególnie w kontekście tworzenia i testowania oprogramowania. Tę być może dla wielu kontrowersyjną tezę poprę argumentami z zakresu nauk ścisłych, a także filozofii. Argumentacja będzie oparta na głębokich i wysoce nietrywialnych rezultatach z zakresu logiki i ogólnej metodologii nauk, ale przedstawię ją w sposób zrozumiały dla każdego, ponieważ idee stojące za tą argumentacją są bardzo proste do zrozumienia.

Adam Romanprofesor uczelni (UJ), wiceprezes zarządu (SJSI)

Adam Roman – informatyk, pracownik naukowy w Instytucie Informatyki i Matematyki Komputerowej Uniwersytetu Jagiellońskiego, gdzie kieruje Zakładem Inżynierii Oprogramowania. Ekspert w zakresie inżynierii jakości oprogramowania. Jako reprezentant UJ, w ramach ISO bierze udział w pracach nad normą ISO 29119 – Software Testing Standard. Współautor sylabusów ISTQB: Poziom podstawowy, Analityk testów oraz Techniczny analityk testów. Autor wielu artykułów oraz książek z zakresu testowania oprogramowania. Prelegent na wielu konferencjach, m.in. EuroSTAR, Testwarez, Code Europe. Wiceprezes zarządu Stowarzyszenia Jakości Systemów Informatycznych.

"Dlaczego AI nigdy nie zastąpi ludzi w IT?"

W swoim wystąpieniu omówię kluczowe aspekty, które sprawiają, że sztuczna inteligencja (AI) mimo swoich zaawansowanych możliwości, nie jest i - co ważniejsze - nigdy nie będzie (!) w stanie całkowicie zastąpić ludzkiej pracy, szczególnie w kontekście tworzenia i testowania oprogramowania. Tę być może dla wielu kontrowersyjną tezę poprę argumentami z zakresu nauk ścisłych, a także filozofii. Argumentacja będzie oparta na głębokich i wysoce nietrywialnych rezultatach z zakresu logiki i ogólnej metodologii nauk, ale przedstawię ją w sposób zrozumiały dla każdego, ponieważ idee stojące za tą argumentacją są bardzo proste do zrozumienia.

closepopup
Maks OperlejnMachine Learning Engineer / deepsense.ai

Jestem absolwentem Informatyki i Uczenia Maszynowego na Politechnice Gdańskiej, obecnie pracuję jako Machine Learning Engineer w firmie deepsense.ai. Zawodowo i prywatnie skupiam się głównie na dużych modelach językowych i ich szerokim zastosowaniu. Zajmuję się wdrażaniem spersonalizowanych systemów RAG (wykorzystując zarówno modele komercyjne, jak i open-source), a także opracowywaniem i testowaniem agentów programujących. Współpracowałem także z twórcami biblioteki LangChain, skupiając się na kwestiach związanych z prywatnością danych wejściowych dla modeli językowych. Poza pracą odczuwam ciągłą potrzebę poznawania nowych kultur - przejawia się to głównie w podróżach i nauce języków obcych. Dodatkowo, kompulsywnie kupuję książki, na których czytanie często brakuje mi czasu 📚.

"LLM 101 - wprowadzenie do świata modeli językowych"

Nieustający hype na wielkie modele językowe (LLM) i ich niewątpliwa użyteczność sprawiły, że dla wielu ludzi korzystanie z nich stało się codziennością. Studenci z pomocą ChataGPT piszą swoje prace magisterskie, amatorzy kuchni uczą się piec chleb (co, szczerze mówiąc, niezbyt polecam), a ja sam upewniam się, że nie popełniłem głupich błędów stylistycznych w tym opisie. W świecie programistów, modele od OpenAI i konkurencji są użyteczne do rozwiązywania prostych zadań - Stack Overflow nie ma już monopolu w tym zakresie. Co więcej, Dolina Krzemowa i nie tylko, pełne są startupów, które - z większym lub mniejszym sukcesem - zalewają rynek produktami z "AI" w nazwie.

Mimo powszechnej obecności LLM w naszym otoczeniu (a szczególnie na LinkedIn, ugh 🙄), niewielki odsetek ludzi faktycznie wie, co kryje się za ich działaniem. Spróbuję zatem zarysować ten temat i odpowiedzieć na kilka kluczowych pytań:
• Jak działa architektura uczenia głębokiego będąca podstawą każdego LLMa (Transformery, multi-head attention)
• Dlaczego LLM tak dobrze wchodzi w interakcję z użytkownikiem, formatując odpowiedzi odpowiednio do potrzeb, a jednocześnie potrafi unikać pytań natury… mało etycznej? (RLHF)
• Czy możemy wytrenować własny LLM do naszych celów? (modele open-source, fine-tuning)
• Jak LLM może korzystać ze źródeł zewnętrznych (np. z internetu lub firmowego Confluence), nie mając do nich dostępu w czasie treningu? (bardzo krótko o RAG)

Postaram się przedstawić ten temat w sposób jasny, intuicyjny i bez wchodzenia w złożoną matmę - zapraszam!

Maks OperlejnMachine Learning Engineer / deepsense.ai

Jestem absolwentem Informatyki i Uczenia Maszynowego na Politechnice Gdańskiej, obecnie pracuję jako Machine Learning Engineer w firmie deepsense.ai. Zawodowo i prywatnie skupiam się głównie na dużych modelach językowych i ich szerokim zastosowaniu. Zajmuję się wdrażaniem spersonalizowanych systemów RAG (wykorzystując zarówno modele komercyjne, jak i open-source), a także opracowywaniem i testowaniem agentów programujących. Współpracowałem także z twórcami biblioteki LangChain, skupiając się na kwestiach związanych z prywatnością danych wejściowych dla modeli językowych. Poza pracą odczuwam ciągłą potrzebę poznawania nowych kultur - przejawia się to głównie w podróżach i nauce języków obcych. Dodatkowo, kompulsywnie kupuję książki, na których czytanie często brakuje mi czasu 📚.

"LLM 101 - wprowadzenie do świata modeli językowych"

Nieustający hype na wielkie modele językowe (LLM) i ich niewątpliwa użyteczność sprawiły, że dla wielu ludzi korzystanie z nich stało się codziennością. Studenci z pomocą ChataGPT piszą swoje prace magisterskie, amatorzy kuchni uczą się piec chleb (co, szczerze mówiąc, niezbyt polecam), a ja sam upewniam się, że nie popełniłem głupich błędów stylistycznych w tym opisie. W świecie programistów, modele od OpenAI i konkurencji są użyteczne do rozwiązywania prostych zadań - Stack Overflow nie ma już monopolu w tym zakresie. Co więcej, Dolina Krzemowa i nie tylko, pełne są startupów, które - z większym lub mniejszym sukcesem - zalewają rynek produktami z "AI" w nazwie.

Mimo powszechnej obecności LLM w naszym otoczeniu (a szczególnie na LinkedIn, ugh 🙄), niewielki odsetek ludzi faktycznie wie, co kryje się za ich działaniem. Spróbuję zatem zarysować ten temat i odpowiedzieć na kilka kluczowych pytań:
• Jak działa architektura uczenia głębokiego będąca podstawą każdego LLMa (Transformery, multi-head attention)
• Dlaczego LLM tak dobrze wchodzi w interakcję z użytkownikiem, formatując odpowiedzi odpowiednio do potrzeb, a jednocześnie potrafi unikać pytań natury… mało etycznej? (RLHF)
• Czy możemy wytrenować własny LLM do naszych celów? (modele open-source, fine-tuning)
• Jak LLM może korzystać ze źródeł zewnętrznych (np. z internetu lub firmowego Confluence), nie mając do nich dostępu w czasie treningu? (bardzo krótko o RAG)

Postaram się przedstawić ten temat w sposób jasny, intuicyjny i bez wchodzenia w złożoną matmę - zapraszam!

closepopup
Kacper DąbrowskiSenior Manager Solution Architecture/ Amazon Web Services

Mam ponad 15 lat doświadczenia w branży IT, z czego większość spędziłem na stanowiskach Solutions Architect oraz DevOps. Przez wiele lat pracowałem intensywnie z chmurą publiczną AWS, zdobywając głęboką wiedzę i umiejętności w zakresie projektowania, wdrażania i zarządzania złożonymi systemami opartymi na chmurze. Moja kariera obejmuje również inicjatywy prowadzenia firm – stworzyłem kilka startupów, które wnosiły innowacyjne rozwiązania na rynek technologiczny. Dodatkowo przez kilka lat prowadziłem firmę konsultingową, gdzie doradzałem firmom różnej wielkości w zakresie optymalizacji ich infrastruktury IT oraz wdrażania nowoczesnych technologii. Od dwóch lat pełnię rolę szefa zespołu architektów w Amazon Web Services, gdzie kieruję zespołem wybitnych specjalistów, współtworząc przyszłość technologii chmurowych i pomagając klientom AWS osiągać ich cele biznesowe dzięki skutecznym i skalowalnym rozwiązaniom.

„Architekt dzwoni do Sztucznej Inteligencji. Emocje gwarantowane.”

W erze cyfrowej sztuczna inteligencja (SI) przekształca analitykę biznesową oraz funkcjonowanie centrów kontaktowych, wprowadzając nowatorskie rozwiązania w zakresie analizy emocji i optymalizacji obsługi klienta. Prezentacja „Architekt dzwoni do Sztucznej Inteligencji. Emocje gwarantowane.” zgłębia, jak SI rewolucjonizuje te obszary, oferując nowe perspektywy na analizę danych i interakcje z klientami.

Podczas wystąpienia skoncentrowano się na możliwościach SI w analizie emocji, umożliwiającej bardziej spersonalizowane i efektywne podejście do obsługi oraz prognozowania trendów. Omówiono, jak technologia przetwarza i interpretuje dane emocjonalne oraz wpływa to na strategię biznesową i doświadczenie użytkowników.

W kontekście centrów kontaktowych zaprezentowane zostanie, jak SI automatyzuje interakcje oraz analizuje sentyment, w tym konkretne architektury rozwiązań oraz ich techniczne aspekty. Przykłady implementacji systemów analitycznych i chatbotów, wykorzystujących SI do efektywnego zarządzania relacjami z klientami, zostaną zaprezentowane podczas demonstracji (dema).

Kacper DąbrowskiSenior Manager Solution Architecture/ Amazon Web Services

Mam ponad 15 lat doświadczenia w branży IT, z czego większość spędziłem na stanowiskach Solutions Architect oraz DevOps. Przez wiele lat pracowałem intensywnie z chmurą publiczną AWS, zdobywając głęboką wiedzę i umiejętności w zakresie projektowania, wdrażania i zarządzania złożonymi systemami opartymi na chmurze. Moja kariera obejmuje również inicjatywy prowadzenia firm – stworzyłem kilka startupów, które wnosiły innowacyjne rozwiązania na rynek technologiczny. Dodatkowo przez kilka lat prowadziłem firmę konsultingową, gdzie doradzałem firmom różnej wielkości w zakresie optymalizacji ich infrastruktury IT oraz wdrażania nowoczesnych technologii. Od dwóch lat pełnię rolę szefa zespołu architektów w Amazon Web Services, gdzie kieruję zespołem wybitnych specjalistów, współtworząc przyszłość technologii chmurowych i pomagając klientom AWS osiągać ich cele biznesowe dzięki skutecznym i skalowalnym rozwiązaniom.

„Architekt dzwoni do Sztucznej Inteligencji. Emocje gwarantowane.”

W erze cyfrowej sztuczna inteligencja (SI) przekształca analitykę biznesową oraz funkcjonowanie centrów kontaktowych, wprowadzając nowatorskie rozwiązania w zakresie analizy emocji i optymalizacji obsługi klienta. Prezentacja „Architekt dzwoni do Sztucznej Inteligencji. Emocje gwarantowane.” zgłębia, jak SI rewolucjonizuje te obszary, oferując nowe perspektywy na analizę danych i interakcje z klientami.

Podczas wystąpienia skoncentrowano się na możliwościach SI w analizie emocji, umożliwiającej bardziej spersonalizowane i efektywne podejście do obsługi oraz prognozowania trendów. Omówiono, jak technologia przetwarza i interpretuje dane emocjonalne oraz wpływa to na strategię biznesową i doświadczenie użytkowników.

W kontekście centrów kontaktowych zaprezentowane zostanie, jak SI automatyzuje interakcje oraz analizuje sentyment, w tym konkretne architektury rozwiązań oraz ich techniczne aspekty. Przykłady implementacji systemów analitycznych i chatbotów, wykorzystujących SI do efektywnego zarządzania relacjami z klientami, zostaną zaprezentowane podczas demonstracji (dema).

closepopup

Prelekcje bITconf 2024

O czym będziemy rozmawiać na tegorocznej konferencji, na czterech ścieżkach tematycznych.

Sprawdź agendę konferencji

Ceny wejściówek

Early Bird

PLN256/ osoba
  • Prelekcje
  • networking
  • IT

Regular

PLN384/ osoba
  • Prelekcje
  • networking
  • IT
do 11 września

Last minute

PLN512/ osoba
  • Prelekcje
  • networking
  • IT

Weź udział w największej konferencji IT w naszym regionie.

Lokalizacja

Bydgoskie Centrum Targowo – Wystawiennicze

ul. Gdańska 187
85-674 Bydgoszcz
Kujawy Pomorze