Najważniejsze wydarzenia ze świata AI, które miały miejsce w październiku 2025!
Omówimy największe przełomy, zaskoczenia i kontrowersje, które wpłynęły na rozwój sztucznej inteligencji w ostatnich tygodniach.
📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI.
🔴 Subskrybuj i bądź na bieżąco!
🎙 Prowadzący:
🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/
🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski/
🔹Daniel Ura - https://www.linkedin.com/in/danielura/
Chcesz zobaczyć, jak w praktyce wykorzystać AI do automatyzacji procesów biznesowych i tworzenia kreatywnych treści? Dołącz do naszej darmowej serii webinarów AI Ninjas, którą prowadzę razem z Krzyśkiem Bohaczykiem, i zdobądź konkretne umiejętności, zapisując się na:
https://aininjas.pl/webinar/
W tym odcinku AI Newsów przyglądamy się fenomenowi Xenii Monet – artystki stworzonej przez AI, która nie tylko trafiła na listy Billboardu, ale także podpisała kontrakt płytowy na 3 miliony dolarów.
Zagłębiamy się również w kulisy projektu Suncatcher od Google, czyli planu wyniesienia serwerów AI na orbitę, by rozwiązać globalny kryzys mocy obliczeniowej.
Analizujemy też, dlaczego wdrożenia AI, które świetnie wyglądają na papierze, w praktyce kończą się porażką, gdy zderzają się z wąskimi gardłami w firmowych procesach i oporem pracowników.
Na koniec omawiamy, jak nowe narzędzia, takie jak Kursor 2.0, zmieniają zasady gry w programowaniu, pozwalając na pracę z ośmioma agentami AI jednocześnie w bezpiecznym, odizolowanym środowisku.
Z tego odcinka dowiesz się:
🔹 Jak wygląda przyszłość mocy obliczeniowej dla AI, od komputerów kwantowych po centra danych na orbicie.
🔹 Czym są nowe narzędzia ułatwiające tworzenie i wdrażanie własnych agentów oraz aplikacji AI.
🔹 W jaki sposób sztuczna inteligencja wkracza do branży muzycznej, generując artystów na miarę list przebojów.
🔹 Dlaczego tak wiele wdrożeń AI w firmach kończy się porażką i jak błędnie mierzymy ich sukces.
🔹 Z jakimi realnymi problemami zderzają się firmy podczas implementacji, od chaosu w danych po opór pracowników.
🔹 Jakie są najczęstsze błędy projektowe, od wyboru nieodpowiednich narzędzi po niedoszacowanie kosztów API.
🔹 Dlaczego firmy często zaczynają od ambitnych, ale ryzykownych projektów skierowanych do klienta.
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/n12
Rozdziały:
00:00 Odliczanie
00:30 Wprowadzenie
01:15 Co u nas?
07:28 Newsy Piotra: Komputery kwantowe, Google Suncatcher, samoświadomość modeli i artystka AI na liście Billboard
17:23 Pytania i odpowiedzi po newsach Piotra
22:12 Newsy Krzysztofa: OpenAI AgentKit, Claude Code Web, Cursor 2.0, Intel GPU i Veo 3.1
35:51 Pytania i odpowiedzi po newsach Krzysztofa
43:16 Polecajki konferencji: Śniadanie AI, BeefUp i AI Miners
45:22 Polecajki konferencji: DSSK na Narodowym i Hackathon Wdrożeniowy
46:40 Dlaczego wdrożenia AI w firmach kończą się porażką?
48:52 Problem z liczeniem ROI i sprzeczne raporty rynkowe
53:01 Wpływ AI na całą organizację i wąskie gardła w procesach
01:00:00 Rola ludzi w procesie wdrożenia, zarządzanie zmianą i zjawisko "Shadow AI"
01:08:49 Dlaczego firmy zaczynają od wdrażania AI w kontakcie z klientem?
01:14:22 Obietnice bez pokrycia i realne szacowanie kosztów wdrożeń
01:21:57 Kluczowe elementy udanego wdrożenia - dane, procesy i ludzie
01:24:20 Zakończenie
#AI #SztucznaInteligencja #AINews #WdrożeniaAI #AIwBiznesie
Najważniejsze wydarzenia ze świata AI, które miały miejsce we wrześniu 2025!
Omówimy największe przełomy, zaskoczenia i kontrowersje, które wpłynęły na rozwój sztucznej inteligencji w ostatnich tygodniach.
📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI.
🔴 Subskrybuj i bądź na bieżąco!
🎙 Prowadzący:
🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/
🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski/
🔹Daniel Ura - https://www.linkedin.com/in/danielura/
Zniżka dla pierwszych 10 osób na 15% na AI Miners: BSAI-15
Bilety: https://aiminers.pl/
W tym odcinku AI Newsów rozmawiamy o strategicznym partnerstwie NVIDIA i OpenAI, w ramach którego NVIDIA zainwestuje do 100 miliardów dolarów w budowę nowej generacji infrastruktury AI, co ma przyspieszyć rozwój superinteligencji. Zastanawiamy się również, jak na tle globalnych gigantów wygląda adopcja AI w polskich firmach i dlaczego, zdaniem ekspertów, to działy IT często stają się hamulcem dla innowacji. Dzielimy się także spostrzeżeniami, dlaczego zjawisko "workslop" staje się cichym zabójcą produktywności. Na koniec zaglądamy w przyszłość, w której OpenAI planuje wejście na rynek urządzeń konsumenckich, a interfejsy użytkownika mogą stać się zbędne dzięki programowaniu w języku naturalnym.
Z tego odcinka dowiesz się:
🔹 Jak wygląda globalny wyścig w rozwoju AI i jakie strategiczne ruchy wykonują giganci tacy jak NVIDIA i OpenAI.
🔹 Dlaczego firmy takie jak Accenture masowo restrukturyzują zatrudnienie, stawiając na strategię „AI First”.
🔹 Czym jest zjawisko "workslop" i dlaczego generowanie większej ilości treści przez AI może obniżać produktywność w firmach.
🔹 Jakie nowe możliwości w generowaniu wideo wprowadza Sora 2 oraz narzędzia AI udostępnione przez YouTube.
🔹 Czym jest Software 3.0 i jak programowanie w języku naturalnym zmienia podejście do tworzenia aplikacji.
🔹 Jakie są kluczowe lekcje z wdrażania agentów AI w biznesie na podstawie wniosków z raportu McKinsey.
🔹 Czy czeka nas koniec front-endu i jak agenci AI mogą zrewolucjonizować e-commerce oraz marketing.
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/n11
Rozdziały:
00:00 Odliczanie
00:32 Wprowadzenie
01:12 Co u nas? Targi Gitex w Dubaju, konferencje i pierwsza edycja AI Miners
09:55 Newsy Piotra: Raport o AI w Europie, DevOps w erze AI i zjawisko "WorkSlop"
16:20 Newsy Krzysztofa: Nowe narzędzia AI na YouTube, Sora 2, Llama w urzędach USA i partnerstwo NVIDIA z OpenAI
30:00 Newsy Daniela: Adopcja AI w polskich firmach, zwolnienia w Accenture oraz raport McKinsey o agentach AI
39:53 Dyskusja o newsach: Zwolnienia w IT, problem z liczeniem ROI i "Shadow AI" w korporacjach
01:04:49 Polecajki konferencji i eventów: Soda, AIBA, AI Miners i wiele więcej
01:13:10 Narzędzia AI: Claude Imagine od Anthropic
01:29:01 Narzędzia AI: Napkin AI
01:32:18 Jailbreak NotebookLM: Podsumowania audio w wersji 18+
01:48:40 Główny temat: Czym jest Software 3.0 i programowanie w języku naturalnym?
01:55:40 Dyskusja o przyszłości: Koniec front-endu, agenci AI w e-commerce i zmiana roli marketingu
02:04:10 Zakończenie
#SztucznaInteligencja #AIwBiznesie #Software3.0 #AINews #OpenAI
Myślisz, że firmowe AI to tylko kwestia podpięcia się pod API od OpenAI? Nic bardziej mylnego. Odkryj, jak zbudować system autonomicznych agentów, które realnie wykonują zadania biznesowe, a nie tylko odpowiadają na pytania. Dowiedz się, dlaczego wymaga to nie tylko odseparowanej infrastruktury, ale przede wszystkim wbudowanych mechanizmów bezpieczeństwa, które ograniczają halucynacje i chronią przed próbami "jailbreaku".
Zniżka dla pierwszych 10 osób na 15% na AI Miners: BSAI-15
Bilety: https://aiminers.pl/
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu zagłębiamy się w ekosystem narzędzi AI od Microsoftu, wyjaśniając, dla kogo przeznaczone jest środowisko Azure AI Foundry, a kto powinien sięgnąć po platformę Copilot Studio. Uchylamy rąbka tajemnicy na temat polskiego regionu Azure, tłumacząc, na czym polega jego unikalna architektura 3+0. Dowiesz się, dlaczego autonomiczność jest kluczową cechą prawdziwych agentów AI i jak frameworki takie jak Semantic Kernel pomagają w ich orkiestracji. Omawiamy też konkretne mechanizmy Responsible AI, w tym jak mierzyć „uziemienie” odpowiedzi w dostarczonych danych, by minimalizować ryzyko halucynacji.
Z tego odcinka dowiesz się:
🔹 Czym różni się Azure AI Foundry od Copilot Studio i gdzie w tym wszystkim mieści się tradycyjny Azure Machine Learning.
🔹 Co sprawia, że polski region chmury Azure jest jednym z najnowocześniejszych na świecie.
🔹 Jak działa katalog modeli w Azure i jakie mamy możliwości wdrażania oraz skalowania modeli od OpenAI i nie tylko.
🔹 Z jakich klocków krok po kroku zbudować kompletną aplikację typu RAG na platformie Azure.
🔹 Czym w praktyce są agenci AI i jak platforma wspiera ich tworzenie oraz orkiestrację.
🔹 Na czym polega odpowiedzialne AI (Responsible AI) i jak narzędzia takie jak Content Safety pomagają budować bezpieczne aplikacje.
🔹 Od czego zacząć wdrażanie AI w firmie, aby uniknąć typowych pułapek i skupić się na realnej wartości biznesowej.
🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://www.linkedin.com/in/mifurm/
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/r24
Rozdziały:
00:00 Dziś w odcinku
01:59 Wprowadzenie
02:07 Michał Furmankiewicz
05:05 Kulisy polskiego regionu Azure
12:15 Czym jest Azure AI Foundry?
15:10 Foundry vs. Copilot Studio
16:25 A gdzie w tym wszystkim Azure ML?
18:59 Gotowe usługi AI bez modeli generatywnych
23:37 Praca dewelopera w Azure AI Foundry
26:40 Katalog modeli: Tysiące opcji do wyboru
29:43 Jak Microsoft hostuje modele OpenAI?
34:07 Skalowanie modeli i dedykowane instancje
36:58 Czym naprawdę jest autonomiczny agent AI?
41:00 Jak budować agentów w Azure?
46:50 Budujemy aplikację RAG krok po kroku
52:45 Filary odpowiedzialnego AI (Responsible AI)
55:17 Narzędzie Content Safety w praktyce
01:02:00 Problem z filtrowaniem treści
01:03:53 Po co nam ewaluacja modeli?
01:06:25 Jak mądrze zacząć z AI w firmie?
01:18:43 Inspiracje i polecane materiały
01:21:49 Gdzie znaleźć Michała w sieci?
01:24:45 Zakończenie
#AzureAIFoundry #AIAgents #MicrosoftAzure #ResponsibleAI #AI
Twoja aplikacja AI halucynuje na każdym kroku? Prawdopodobnie problem leży nie w LLM-ie, a w sposobie, w jaki dostarczasz mu dane. Odkryj, jak wyszukiwanie wektorowe buduje niezawodne bazy wiedzy dla AI i dlaczego popularne rozwiązania, takie jak PGVector, mogą okazać się ślepą uliczką.
Zniżka dla pierwszych 10 osób na 15% na AI Miners: BSAI-15
Bilety: https://aiminers.pl/
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu zanurzamy się w techniczne aspekty wyszukiwania wektorowego. Dowiesz się, dlaczego proste filtrowanie może "zepsuć" wyniki w systemach wektorowych i jak radzą sobie z tym dedykowane silniki. Omawiamy, czym w praktyce jest wyszukiwanie hybrydowe, jak standaryzacja w postaci protokołu MCP zmienia ekosystem AI i dlaczego wybór odpowiedniego modelu embeddingowego jest często ważniejszy niż samego LLM-a.
Z tego odcinka dowiesz się:
🔹 Na czym polega praca Developer Advocate i jakie umiejętności są kluczowe na tej ścieżce kariery.
🔹 Czym wyszukiwanie wektorowe różni się od tradycyjnych metod opartych na słowach kluczowych.
🔹 Dlaczego dedykowane bazy wektorowe często mają przewagę nad rozszerzeniami takimi jak PGVector.
🔹 Jakie są kluczowe elementy budowy systemów RAG, od strategii chunkowania po wybór odpowiedniego modelu embeddingowego.
🔹 W jakich scenariuszach, poza RAG, wyszukiwanie wektorowe sprawdza się najlepiej.
🔹 Na czym polega wyszukiwanie hybrydowe i dlaczego łączenie różnych metod daje często najlepsze rezultaty.
🔹 Czy modele VLM i statyczne embeddingi to przyszłość wyszukiwania informacji.
🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://www.linkedin.com/in/kacperlukawski/
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/r23
Rozdziały:
00:00 Dziś w odcinku
02:11 Wprowadzenie
02:24 Kacper Łukaski
02:57 Czym jest fundacja AI Embassy?
05:39 Na czym polega rola Developer Advocate?
12:21 Wyszukiwanie wektorowe vs klasyczne
16:01 Kiedy klasyczne wyszukiwanie wygrywa?
17:35 Wyszukiwanie wektorowe w RAG
19:10 Czym jest RAG?
22:04 Zastosowania baz wektorowych poza RAG
27:40 Qdrant vs PGVector: Co wybrać?
34:39 Kiedy rozszerzenie PGVector wystarczy?
37:21 Dlaczego filtrowanie jest trudne?
41:13 Czym jest wyszukiwanie hybrydowe?
45:40 Chunkowanie a jakość odpowiedzi
51:50 Jak wybrać model embeddingowy?
56:50 Polskie LLM w systemach RAG
01:00:11 Fine-tuning małych modeli: Czy warto?
01:03:39 Czym jest protokół MCP?
01:17:15 Jak wybrać silnik wyszukiwania?
01:21:00 Przyszłość wyszukiwania: VLM i embeddingi
01:26:54 Polecane materiały i zakończenie
#WyszukiwanieWektorowe #RAG #SztucznaInteligencja #BazyWektorowe #LLM
Najważniejsze wydarzenia ze świata AI, które miały miejsce w sierpniu 2025!
Omówimy największe przełomy, zaskoczenia i kontrowersje, które wpłynęły na rozwój sztucznej inteligencji w ostatnich tygodniach.
📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI.
🔴 Subskrybuj i bądź na bieżąco!
🎙 Prowadzący:
🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/
🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski/
🔹Daniel Ura - https://www.linkedin.com/in/danielura/
Zniżka dla pierwszych 10 osób na 15% na AI Miners: BSAI-15
Bilety: https://aiminers.pl/
W tym odcinku AI newsów rozmawiamy o rosnącej przepaści między szybkim postępem technologicznym a trudną rzeczywistością jego adopcji w biznesie. Z jednej strony mamy nowe modele, które rozwiązują problemy matematyczne na poziomie akademickim i rewolucjonizują pracę kreatywną, a z drugiej głośny raport MIT wskazujący na brak zwrotu z inwestycji. Dyskutujemy o tym, gdzie leży prawda i jak ludzki strach staje się największą barierą na drodze do prawdziwej transformacji AI.
Z tego odcinka dowiesz się:
🔹 Dlaczego głośny raport MIT o braku zwrotu z inwestycji w AI może wprowadzać w błąd.
🔹 Jak strach i niechęć pracowników do nowych narzędzi hamują wdrażanie sztucznej inteligencji w organizacjach.
🔹 Jak najnowsze modele AI radzą sobie ze złożonymi problemami matematycznymi i grami społecznymi.
🔹 Czym jest „Vibe Hacking” i w jaki sposób sztuczna inteligencja jest już wykorzystywana do przeprowadzania cyberataków.
🔹 Jak narzędzia takie jak Gemini CLI i nowy Codex od OpenAI zmieniają pracę programistów.
🔹 Jak NanoBanana i cyfrowe awatary od HeyGen rewolucjonizują tworzenie treści wideo i graficznych.
🔹 Czy w dobie AI wrócimy do biznesu opartego na bezpośrednich relacjach międzyludzkich.
🔹 Jak globalny wyścig technologiczny wpływa na kwestie etyczne i dyskusje o „cierpieniu” AI.
🔹 W jaki sposób autonomiczne systemy AI są wykorzystywane do znajdowania i naprawiania luk bezpieczeństwa.
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/n10
Rozdziały:
00:00 Odliczanie
00:34 Wprowadzenie
01:00 Co u nas? Kursy kwantowe, networking i spotkania na żywo
07:25 Zapowiedzi konferencji: BeefUp, AIBA i AI Miners
11:40 Przegląd szybkich newsów
12:15 Newsy Daniela: Głośny raport MIT, rynek pracy i transkrypcje Google
19:25 Newsy Piotra: Prawa dla AI, GPT-5, Vibe Hacking i AI Cyber Challenge
28:20 Newsy Krzysztofa: Gemini CLI, NanoBanana, awatary HeyGen i promptowanie
39:20 Główny temat: Dlaczego wdrożenia AI w firmach zawodzą?
50:40 AI zabierze pracę? Augmentacja vs zastąpienie
01:01:50 Powrót do "old school business" i przyszłość branży IT
01:22:15 Prawo Moore'a dla AI, czyli jak szybko zmienia się technologia
01:40:00 Dyskusja o przyszłości Software 3.0
01:48:20 Q&A z czatem: Bielik, przyszłość zawodów i psychologia AI
02:02:50 Zakończenie i podziękowania
#AINews #AI #AIwBiznesie #PrzyszłośćPracy #EtykaAI
Czy czeka nas martwy internet, w którym treści generowane przez AI będą czytane przez AI dla AI? Posłuchaj, jak dziennikarstwo walczy o przetrwanie w epoce Big Techów i dlaczego zrozumienie tej walki jest kluczowe, by nie stać się ofiarą dezinformacji.
Zniżka dla pierwszych 10 osób na 20% na AI Miners: IJ94YF
Bilety: https://aiminers.pl/
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu zaglądamy za kulisy pracy współczesnego dziennikarza. Dowiesz się, jak giganci technologiczni, tacy jak Google i Meta, dyktują warunki redakcjom, zmuszając je do nieustannej walki o zasięgi. Wyjaśniamy, czym w praktyce różni się praca reportera od zadań media workera i dlaczego sztuczna inteligencja, choć zagraża niektórym rolom, staje się niezbędnym narzędziem ułatwiającym research, redakcję tekstów i weryfikację faktów.
Z tego odcinka dowiesz się:
🔹 Jak dyktat algorytmów Google i Meta zmienił pracę redakcji, prowadząc do ery clickbaitu i pisania pod SEO.
🔹 Na czym polegają fundamentalne różnice między dziennikarzem, influencerem a media workerem.
🔹 Dlaczego media coraz częściej zamykają się za paywallem, tworząc internet dwóch prędkości.
🔹 W jaki sposób sztuczna inteligencja staje się codziennym narzędziem dziennikarzy, uwalniając ich od żmudnych zadań.
🔹 Które role w mediach AI zautomatyzuje, a gdzie ludzka praca reporterska pozostanie niezastąpiona.
🔹 Na czym polega problem "kradzieży" treści do trenowania modeli AI i dlaczego grozi nam wizja martwego internetu.
🔹 Jakie są szanse i zagrożenia płynące ze współpracy mediów z gigantami technologicznymi, takimi jak OpenAI.
🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://www.linkedin.com/in/rafalpikula/
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/r22
Rozdziały:
00:00 Dziś w odcinku
01:54 Wprowadzenie
02:04 Rafał Pikuła
02:50 Kim jest dziennikarz, a kim influencer w cyfrowym świecie?
07:38 Media worker: cichy bohater czy ofiara automatyzacji?
13:54 Jak Big Techy i internet zrewolucjonizowały media?
19:15 Internet dwóch prędkości: dlaczego za dobre treści trzeba płacić?
24:25 Dyktat algorytmu: jak SEO i clickbait zmieniły pracę redakcji?
39:52 Kolejna rewolucja: jak AI wpływa na dziennikarstwo?
42:17 Czy AI zabierze pracę dziennikarzom?
47:30 Praktyczne narzędzia AI w pracy dziennikarza
57:55 Czego AI nie potrafi? Rola reporterskiego nosa i ludzkiej intuicji
01:06:36 Kradzież czy inspiracja? Etyczny problem trenowania modeli AI
01:21:28 Pakt z diabłem: czy media powinny współpracować z gigantami AI?
01:32:52 Rekomendacje książek i materiałów
01:35:45 Gdzie znaleźć Rafała w sieci?
01:36:25 Zakończenie
Reklama na finałach NBA wygenerowana w całości przez AI? To już się dzieje. Zobacz, jak rewolucja wideo zmienia marketing i jak Ty możesz wykorzystać te same, potężne narzędzia do tworzenia niesamowitych treści.
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu zaglądamy za kulisy generowania wideo za pomocą AI. Dowiesz się, jak w praktyce wygląda workflow tworzenia wiralowych klipów – od rozpisania scenariusza i generowania obrazów, przez wielokrotne iteracje animacji, aż po finalny montaż z muzyką również tworzoną przez sztuczną inteligencję. Omawiamy, dlaczego spójność postaci wciąż jest jednym z największych wyzwań i jak nowe funkcje, takie jak kontrola ruchu kamery, rewolucjonizują pracę twórców.
Z tego odcinka dowiesz się:
🔹 Dlaczego tworzenie angażującego wideo AI to złożony proces wymagający wielu iteracji, a nie tylko wpisania polecenia.
🔹 W jaki sposób agencje marketingowe wykorzystują już wideo AI do tworzenia reklam emitowanych nawet w trakcie finałów NBA.
🔹 Które narzędzia do generowania wideo wiodą obecnie prym na rynku, a które okazały się rozczarowaniem.
🔹 Dlaczego zachowanie spójności postaci pozostaje jednym z największych wyzwań dla generatorów wideo AI.
🔹 Jakie szanse i zagrożenia niesie wideo AI dla branży filmowej oraz marketingu.
🔹 Jak deepfake'i i realistyczne obrazy, takie jak papież w kurtce Balenciagi, zacierają granicę między prawdą a fikcją.
🔹 Jak „Will Smith jedzący spaghetti” stał się benchmarkiem ukazującym ogromny postęp w generowaniu wideo AI w ciągu zaledwie dwóch lat.
🔹 Od czego zacząć przygodę z wideo AI i jakich błędów unikać, by się nie zniechęcić.
🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://www.linkedin.com/in/jeremiasz-krok-%E5%BA%B7%E4%BF%8A%E6%9D%B0-8471a5203/
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/r21
Rozdziały:
00:00 Dziś w odcinku
01:31 Wprowadzenie
02:20 Jeremiusz Krok
03:29 Generowanie wideo za pomocą AI
09:46 Ewolucja narzędzi AI w generowaniu treści
14:44 Deepfake i jego konsekwencje
20:02 Wyzwania związane z rozpoznawaniem treści AI
25:07 Zastosowania AI w marketingu
29:51 Proces tworzenia treści wideo
34:54 Iteracje w generowaniu treści AI
39:39 Narzędzia do generowania treści AI
48:22 Ewolucja narzędzi AI wideo
52:45 Efekty specjalne i ich generowanie
56:24 Przyszłość generowania wideo
01:01:20 Wyzwania i możliwości narzędzi AI
01:08:24 Wpływ AI na przemysł filmowy
01:13:23 Przewidywania na przyszłość
01:23:50 Porady dla początkujących twórców wideo AI
01:30:18 Inspiracje i źródła wiedzy
01:32:13 Zakończenie
Najważniejsze wydarzenia ze świata AI, które miały miejsce w lipcu 2025!
Omówimy największe przełomy, zaskoczenia i kontrowersje, które wpłynęły na rozwój sztucznej inteligencji w ostatnich tygodniach.
📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI.
🔴 Subskrybuj i bądź na bieżąco!
🎙 Prowadzący:
🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/
🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski/
🔹Daniel Ura - https://www.linkedin.com/in/danielura/
Zniżka dla pierwszych 10 osób na 20% na AI Miners: IJ94YF
👉 https://aiminers.pl/
W tym odcinku AI Newsów zagłębiamy się w erę autonomicznych agentów, które zaczynają działać w naszym imieniu bezpośrednio w przeglądarkach i środowiskach deweloperskich. Analizujemy, jak najnowsze narzędzia od gigantów technologicznych i dynamicznych startupów pozwalają na automatyzację skomplikowanych zadań, definiując na nowo przyszłość pracy i interakcji z technologią.
Z tego odcinka dowiesz się:
🔹 Co nowego szykują giganci tacy jak Microsoft, OpenAI i Google w walce o rynek przeglądarek i agentów AI potrafiących wykonywać zadania za użytkownika.
🔹 Co potrafi zaprezentowany na żywo model GPT-5 i jakie otwarte modele udostępniło OpenAI.
🔹 Czym są generalni agenci AI i jak różnią się od prostych automatyzacji.
🔹 Jakie narzędzia, takie jak Claude Code, Perplexity Comet, GPT agent czy Gemini CLI, rewolucjonizują programowanie i pracę z danymi.
🔹 W jaki sposób automatyzować złożone zadania biznesowe, od mapowania procesów po tworzenie stron internetowych.
🔹 Które zawody są najbardziej zagrożone przez AI i kto ponosi odpowiedzialność za błędy autonomicznych systemów.
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/n9
Rozdziały:
00:00 Odliczanie
00:30 Wprowadzenie
01:30 Co u nas?
05:18 BeefUp Steak Holders
06:07 AI Miners
12:20 Plan odcinka i przegląd szybkich newsów
13:34 Newsy Daniela: Walka o rynek przeglądarek i przyszłość pracy z AI
18:39 Newsy Piotra: AI na olimpiadzie matematycznej i wyścig zbrojeń USA vs Chiny
26:16 Newsy Krzysztofa: Nowości w NotebookLM, Olama i otwarte modele od OpenAI
34:06 Polecajki narzędzi: Comet, Claude Code, Bolt
55:34 Q&A z czatem
01:07:30 Główny temat: Czym są i co potrafią generalni agenci AI?
01:54:30 Demo GPT-5 na żywo
02:00:46 Zaproszenie na AI Miners
02:01:23 Zakończenie
Czy polski model AI – Bielik – może być lepszy niż globalni giganci? Okazuje się, że tak, zwłaszcza w analizie prawa. Zobacz, jak sztuczna inteligencja rewolucjonizuje pracę prawników, automatyzując w kilka minut research i tworzenie linii orzeczniczych – proces, który do tej pory zajmował długie godziny.
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu rozmawiamy o tym, jak zaawansowane systemy AI, oparte na architekturze RAG, rewolucjonizują branżę prawną. Dowiesz się, dlaczego wyszukiwanie semantyczne jest skuteczniejsze od tradycyjnych metod, jak w praktyce wygląda budowa i fine-tuning modeli językowych dla specyficznych potrzeb oraz jak zapewnić pełną weryfikowalność odpowiedzi, aby znacząco ograniczyć ryzyko halucynacji.
Z tego odcinka dowiesz się:
🔹 Jak AI przyspiesza research prawny i automatyzuje tworzenie linii orzeczniczych.
🔹 Czemu wyszukiwanie semantyczne przewyższa podejście oparte na słowach kluczowych.
🔹 Na czym polega architektura RAG i jak ogranicza ryzyko halucynacji.
🔹 Jak zbudować skuteczny system wyszukiwania, łącząc bazy wektorowe, leksykalne i grafowe.
🔹 Jak przeprowadzić fine-tuning, by skutecznie dostosować model do specyfiki nowej domeny.
🔹 Dlaczego Bielik lepiej radzi sobie z polskimi tekstami prawnymi niż modele globalnych gigantów.
🔹 Jak zapewnić weryfikowalność odpowiedzi AI.
🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://pl.linkedin.com/in/witold-wydmanski
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/r20
Rozdziały:
00:00 Dziś w odcinku
00:57 Wprowadzenie
01:17 Witold Wydmański
01:52 Wyzwania w pracy prawników: Jak przyspieszyć research prawny?
05:12 Czym jest linia orzecznicza i dlaczego jest kluczowa?
08:35 Czy prawnicy chętnie adaptują nowe technologie?
12:47 Od słów kluczowych do wyszukiwania semantycznego: Ewolucja searchu
19:40 Wyszukiwanie leksykalne vs. semantyczne
23:54 Architektura RAG
26:19 Jak działają modele wektorowe?
31:19 Wymiary wektorów, Matrioszka i metryki odległości (Cosine vs. Dot Product)
35:05 Hybrid RAG i Agentic RAG - czym się różnią?
39:15 Jak zbudowany jest GAIUS? Architektura systemu w praktyce
41:51 Dlaczego warto uczyć modele swojej domeny? Fine-tuning w prawie
48:30 Chunkowanie dokumentów - jak robić to dobrze?
52:27 Jak AI rozumie obrazki i tabele w dokumentach?
54:02 Benchmarki i metryki - jak mierzyć jakość modeli?
59:58 Stack technologiczny GAIUS
01:09:22 Dlaczego polski model Bielik okazał się lepszy od GPT-4?
01:17:06 Przyszłość Gaiusa i nowe funkcje
01:19:41 Porównanie z narzędziami dla programistów
01:21:26 Polecajki
01:23:46 Zakończenie
Używasz AI w firmie? Upewnij się, że kod i grafiki należą do Ciebie, a Twoje poufne dane nie stają się darmowym paliwem dla modeli językowych. Poznaj główne ryzyka prawne wdrażania AI w organizacji.
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu rozmawiamy o tym, jak zbudować bezpieczne ramy prawne dla wykorzystania AI w organizacji – zaczynając od analizy praw autorskich, a kończąc na kluczowej roli edukacji w budowaniu świadomości i dobrych praktyk w całym zespole.
Z tego odcinka dowiesz się:
🔹 Jak wygląda sytuacja prawna i stan rozwoju AI w Polsce i Europie na tle Chin oraz USA.
🔹 Kto jest autorem dzieł i kodu wygenerowanego przez AI oraz kiedy człowiek może być uznany za twórcę.
🔹 Jakie są główne ryzyka wdrażania AI w firmach.
🔹 Jak bezpiecznie używać narzędzi AI, unikając pułapek darmowych licencji.
🔹 Dlaczego wewnętrzne polityki i edukacja pracowników są kluczowe dla bezpieczeństwa firmy.
🔹 Czym jest „jailbreaking” modeli AI i jakie grożą za to konsekwencje prawne.
🔹 Czy prompty mogą być utworem chronionym prawem autorskim.
🎙 Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://www.linkedin.com/in/natalia-lener/
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/r19
Rozdziały:
00:00 Dziś w odcinku
01:30 Wprowadzenie
01:47 Natalia Lener-Bobek
02:30 Od prawa spółek do AI – jak prawniczka weszła w świat nowych technologii?
09:12 Polska w tyle? Stan rozwoju i regulacji AI w kraju i na świecie
15:30 Przeregulowana Europa, luźne Stany i polskie wyzwania w rozwoju AI
24:55 Kto jest autorem dzieła z AI? Trzy kluczowe scenariusze prawne
32:00 Tworzyłeś grafikę 80 godzin? To nie znaczy, że masz do niej prawa
36:45 Nieświadome naruszenia i karmienie modeli – praktyczne pułapki prawne
44:15 New York Times kontra OpenAI i afera Ghibli – głośne spory prawne w świecie AI
52:25 Czy kod wygenerowany przez AI należy do programisty? Prawa autorskie w IT
01:03:03 "Twoje dane to produkt" – dlaczego warto płacić za narzędzia AI?
01:08:31 Czy Twój prompt to też utwór chroniony prawem?
01:10:31 Jailbreaking i konsekwencje celowego łamania zabezpieczeń AI
01:17:35 AI w relacji pracodawca-pracownik: kto ponosi ryzyko?
01:20:56 Książki i podcasty, które warto znać – polecenia Natalii
01:27:00 Podsumowanie i pożegnanie
#AIwBiznesie #PrawaAutorskie #SztucznaInteligencja #PrawoAI #Podcast
Czy można zbudować własną sieć agentów AI bez pisania linijki kodu?
Tak – a narzędzia do automatyzacji no-code, takie jak n8n, pozwalają stworzyć cyfrowych pracowników, którzy w 40 minut przygotują posty na dwa tygodnie, napiszą skuteczniejsze maile niż człowiek i zorganizują Ci cały dzień pracy, nawet jeśli masz ADHD.
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu rozmawiamy o tym, jak w praktyce wykorzystać sztuczną inteligencję i przejść drogę od prostych asystentów po budowanie własnych sieci agentów – nawet bez wiedzy technicznej.
Z tego odcinka dowiesz się:
🔹Czym różni się asystent AI, agent AI i automatyzacja.
🔹Jak budować własne automatyzacje i sieci agentów AI w n8n.
🔹Jak zarządzać agentami AI, aby unikać błędów i kontrolować koszty API.
🔹Na czym polega self-hosting n8n i dlaczego warto z niego korzystać.
🔹Jak wygląda 4-stopniowy framework nauki praktycznego wykorzystania AI.
Omówiono praktyczne przykłady – od tworzenia treści na LinkedIn po e-maile sprzedażowe, które dzięki AI osiągnęły dwukrotnie większe zaangażowanie. Poruszono temat budowania własnych automatyzacji za pomocą narzędzi no-code i wyjaśniono, jak dobór odpowiedniego modelu językowego (LLM) wpływa na koszty. Na koniec przedstawiono najczęstsze błędy popełniane przez początkujących, podkreślając znaczenie filozofii „Human in the Loop”, w której człowiek zawsze nadzoruje pracę agentów AI.
🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://www.linkedin.com/in/szewczykrobert27
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
Linki i transkrypcja:
🔹https://bliskiespotkaniazai.pl/r18
Rozdziały:
00:00 Dziś w odcinku
01:30 Wprowadzenie
01:47 Robert Szewczyk
04:40 AI w marketingu: Szansa, a nie zagrożenie
09:09 Praktyczne zastosowania AI (planowanie dnia, ADHD)
14:30 Case study: E-maile pisane przez AI z 2x lepszymi wynikami
17:48 Różnice: Asystent AI, Agent AI, Automatyzacja
22:47 Kiedy użyć automatyzacji, a kiedy agenta AI? Konkretne przykłady
27:10 Sieci agentów AI: Korzyści, ryzyka i kaskady błędów
35:50 "Human in the Loop" – czy człowiek zawsze musi być w pętli?
45:45 Jak zacząć z automatyzacją w n8n (self-hosting i koszty)
52:03 Jak optymalizować koszty API i unikać błędów w agentach?
01:10:45 Framework: 4 kroki do nauki AI i automatyzacji dla każdego
01:13:20 Najczęstsze błędy początkujących i jak ich unikać
01:20:01 Rola człowieka w procesie AI
01:21:28 Polecajki
01:23:33 Zakończenie
Najważniejsze wydarzenia ze świata AI, które miały miejsce w czerwcu 2025!
Omówimy największe przełomy, zaskoczenia i kontrowersje, które wpłynęły na rozwój sztucznej inteligencji w ostatnich tygodniach.
📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI.
🔴 Subskrybuj i bądź na bieżąco!
🎙 Prowadzący:
🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak
🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski
Na początek przedstawiono przełomową reklamę wygenerowaną przez Google VEO 3, która zadebiutowała podczas finałów NBA, podkreślając efektywność kosztową i szybkość produkcji wideo dzięki AI.
Zaprezentowano również badanie Anthropic, analizujące zachowania modeli językowych w obliczu zagrożenia wyłączeniem, które ujawniło niepokojące "instynkty przetrwania" i potencjalne zdolności do szantażu, stawiając pod znakiem zapytania kwestie etyki i bezpieczeństwa AI. Sakana AI przedstawiła koncepcję "kolektywnej inteligencji", gdzie wiele modeli współpracuje, by rozwiązywać złożone problemy, osiągając obiecujące wyniki w wymagających testach. Dodatkowo, zwrócono uwagę na plany NVIDII i Foxconn w zakresie wdrożenia robotów AI jako pełnoprawnych pracowników w fabrykach chipsetów, co wskazuje na rosnącą automatyzację procesów produkcyjnych.
Omówiono także kontrowersyjną zmianę licencji w CapCut, która przyznaje aplikacji bezterminowe prawa do treści użytkowników, budząc obawy o prywatność danych i prawa autorskie. Zaprezentowano również Google AI Edge Gallery – aplikację umożliwiającą lokalne przetwarzanie LLM-ów na urządzeniach mobilnych. Przedstawiono również nowe funkcje Gemini do interakcji głosowej w czasie rzeczywistym, generowania mowy z kontrolą emocji i rozpoznawaniem kontekstu, a także open-source'owy model Chatterbox, stanowiący wysokiej jakości alternatywę dla klonowania głosu. Dyskutowano również o złożoności tworzenia zaawansowanych agentów AI, podkreślając rozbieżności między uproszczonymi wizjami a rzeczywistością wdrożeń enterprise'owych, co wymaga gruntownej wiedzy technicznej.
Głównym punktem audycji była analiza raportu NASK dotyczącego wpływu GenAI na polski rynek pracy wskazując na obawy związane z automatyzacją oraz potrzebę adaptacji pracowników i pracodawców do zmieniającego się środowiska. Podkreślono znaczenie kompetencji miękkich oraz eksperymentowania z nowymi technologiami. Zwrócono uwagę na podatność miejsc pracy na automatyzację oraz na konieczność inwestycji w edukację i rozwój umiejętności.
📚 linki:
🔹https://www.reuters.com/world/china/nvidia-foxconn-talks-deploy-humanoid-robots-houston-ai-server-making-plant-2025-06-20
🔹https://www.theverge.com/news/686474/kalshi-ai-generated-ad-nba-finals-google-veo-3
🔹https://www.anthropic.com/research/agentic-misalignment
🔹https://www.mckinsey.com/capabilities/quantumblack/our-insights/seizing-the-agentic-ai-advantage
🔹https://github.com/google-ai-edge/gallery
🔹https://itreseller.pl/capcut-zmienia-zasady-gry-tworcy-obawiaja-sie-o-prawa-do-wlasnych-tresci
🔹https://blog.google/technology/google-deepmind/gemini-2-5-native-audio
🔹https://www.resemble.ai/chatterbox
🔹https://sakana.ai/ab-mcts
🔹https://youtu.be/w20lk3OyLMI
⚙️ Narzędzia:
🔹https://notebooklm.google
🔹https://10xrules.ai
🔹https://github.com/invariantlabs-ai/mcp-scan
🔹https://aistudio.google.com
🔹https://n8n.io
🥩 BeefUp Steak Holders:
🔹https://beefup.pro/steak-holders
Rozdziały:
00:00 Odliczanie
00:30 Wprowadzenie
04:27 Co u nas?
07:00 Agenda
08:28 Reklama generowana przez AI
11:44 Anthropic i etyka modeli AI
14:05 Współpraca modeli AI
15:31 Eksperymenty z robotami w fabrykach
18:00 Zagrożenia związane z AI
23:03 Rewolucja AI w różnych sektorach
26:44 CapCut, AI Edge Gallery, Gemini, Chatterbox
45:00 Polecane narzędzia
53:18 Monitorowanie pracy agentów AI
01:00:10 Eksperymenty z AI
01:05:58 Raport o wpływie GenAI na rynek pracy
01:19:03 Obawy i nadzieje związane z automatyzacją
01:28:43 Rady dla pracowników
01:33:49 Rady dla pracodawców
Czy Twój smart home to technologiczny raj dbający o Twój luksus? A może to raczej szpieg, który wysyła Twoje dane na rosyjskie serwery, a każdy tani gadżet to otwarta furtka dla hakerów?
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu rozmawiamy o tym, jak sztuczna inteligencja zmienia świat internetu rzeczy i inteligentnych domów. Przedstawione zostają przykłady, w jaki sposób AI wpływa na funkcjonowanie nowoczesnych urządzeń – od robotów odkurzających po sprzęty AGD, które analizują codzienne nawyki domowników, by lepiej dopasować sposób działania.
Wyjaśniamy, w jaki sposób AI realnie zmienia działanie urządzeń, z których korzystamy na co dzień. Omawiamy przykłady zastosowania computer vision w robotach odkurzających, inteligentne funkcje w kamerach monitoringu oraz to, jak smart AGD uczy się naszych nawyków, by optymalizować swoją pracę.
Poruszona zostaje kwestia bezpieczeństwa i prywatności danych w inteligentnym domu. Wyjaśnione zostają różnice między przetwarzaniem danych w chmurze a przetwarzaniem lokalnym (edge computing) oraz wskazówki dotyczące ochrony domowej sieci i podłączonych do niej urządzeń IoT.
W odcinku wykraczamy poza smart home, omawiając zastosowania IoT w szerszym kontekście. Dyskutujemy o idei Smart City, rolnictwie precyzyjnym oraz o tym, jak urządzenia wearables, takie jak smartwatche, rewolucjonizują medycynę i monitorowanie stanu zdrowia.
Na koniec pojawia się wątek przyszłości inteligentnych domów – w tym koncepcja autonomicznych systemów sterowanych przez AI. Omawiane są również praktyczne aspekty budowania własnego systemu automatyki – od wyboru ekosystemu, takiego jak Home Assistant, po zrozumienie różnych protokołów komunikacyjnych, m.in. Zigbee, Matter czy Thread.
🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://www.linkedin.com/in/arielzgorski/
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
📚 Materiały:
🔹HAI Magazine: https://haimagazine.com/pl/
🔹SmartMe: https://smartme.pl/
🔹99 Twarzy AI: https://www.99twarzyai.pl/
🔹The Rundown AI: https://www.therundown.ai/
🔹Opanuj.AI: https://opanuj.ai/
🔹SpeakLeash: https://speakleash.org/
Rozdziały:
00:00 Dziś w odcinku
01:17 Wprowadzenie
01:52 Ariel Zgórski
02:40 Ewolucja robotów i sztucznej inteligencji
06:02 Przykłady nieudanych urządzeń IoT
08:43 Automatyzacja i inteligentne domy
11:58 Przyszłość asystentów głosowych
14:51 AI w codziennym życiu i urządzeniach IoT
21:16 Automatyzacja w Smart Home
24:18 Zarządzanie Danymi w IoT
30:10 Tworzenie Smart Home: Wskazówki i Rekomendacje
39:46 Protokół Zigbee i Z-Wave w IoT
44:09 Integracja urządzeń w inteligentnym domu
46:45 Bezpieczeństwo urządzeń IoT
48:59 Zarządzanie siecią i protokołami
54:05 Zastosowania IoT w miastach i rolnictwie
01:00:56 Współpraca w inteligentnych miastach
01:02:25 Wearables i ich wpływ na zdrowie
01:06:30 Zbieranie danych zdrowotnych i ich wykorzystanie
01:10:01 Inteligentne urządzenia w codziennym życiu
01:15:35 Kreatywność w erze IoT i AI
01:20:29 Podsumowanie i rekomendacje dotyczące IoT i AI
01:21:07 Polecajki
01:24:35 Zakończenie
Czy sztuczna inteligencja postawi trafniejszą diagnozę niż lekarz i wyrzuci go z gabinetu? A może przeciwnie – stanie się jego najlepszym wsparciem, przyspieszy diagnostykę i zdemokratyzuje dostęp do opieki zdrowotnej?
🔔 Subskrybuj, aby nie przegapić nowych odcinków!
W tym odcinku podcastu rozmawiamy o tym, jak sztuczna inteligencja zmienia medycynę. Poruszamy zastosowania AI w diagnostyce, personalizacji leczenia oraz automatyzacji procesów medycznych.
Wyjaśniamy, jak działa platforma AutoML wspierająca trenowanie modeli sztucznej inteligencji w szpitalach i dlaczego dane medyczne odgrywają kluczową rolę w tworzeniu skutecznych algorytmów.
Rozmawiamy o tym, jak AI może poprawić precyzję zabiegów, przyspieszyć diagnostykę oraz zwiększyć dostępność usług zdrowotnych dzięki technologicznej demokratyzacji opieki medycznej.
W odcinku omawiamy również projekty związane z medycznymi modelami językowymi oraz wyzwania etyczne, regulacyjne i odpowiedzialność za decyzje podejmowane przez systemy AI.
Zwracamy uwagę na rosnącą współpracę między lekarzami a sztuczną inteligencją oraz coraz większą akceptację tej technologii w środowisku medycznym.
Omawiamy także przyszłość medycyny z AI i to, jak automatyczne diagnozowanie może zmienić codzienną praktykę lekarską.
🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/
👥 Gość: https://www.linkedin.com/in/maciej-kotok/
⭐️ Zobacz też:
🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8
🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA
🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg
🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ
🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE
📚 Książki:
🔹Elon Musk – Walter Isaacson: https://lubimyczytac.pl/ksiazka/5084138/elon-musk
🔹Steve Jobs – Walter Isaacson: https://lubimyczytac.pl/ksiazka/203589/steve-jobs
🔹Moje wynalazki. Autobiografia – Nikola Tesla: https://lubimyczytac.pl/ksiazka/4050842/moje-wynalazki-autobiografia
Rozdziały:
00:00 Dziś w odcinku
01:31 Wprowadzenie
01:43 Maciej Kotok
12:03 Platforma AutoML w medycynie
17:59 Przygotowanie danych do trenowania modeli AI
23:57 Przykłady projektów AI w ochronie zdrowia
24:44 Etyka i regulacje w zastosowaniach AI
26:37 Personalizacja leczenia z wykorzystaniem AI
30:13 Sceptycyzm lekarzy wobec AI
33:07 Odpowiedzialność za błędy AI
37:40 Regulacje dotyczące AI w medycynie
40:09 Modele AI w diagnostyce obrazowej
44:20 Precyzyjna nawigacja w medycynie
48:25 Przyszłość AI w diagnostyce medycznej
52:30 Rola AI w automatyzacji procesów medycznych
57:27 Demokratyzacja dostępu do usług medycznych
01:01:12 Polecajki
01:04:01 Zakończenie
Najważniejsze wydarzenia ze świata AI, które miały miejsce w kwietniu 2025!
📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI.
🔴 Subskrybuj i bądź na bieżąco!
🎙 Prowadzący:
🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/
🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski/
🔹Daniel Ura - https://www.linkedin.com/in/danielura/
W ramach tej audycji omówiono najważniejsze wydarzenia ze świata sztucznej inteligencji (AI), które miały miejsce w maju. Microsoft udostępnił kod Github Copilot Chat i integruje AI z Visual Studio Code. Anthropic zaprezentował nowe modele Claude Opus 4 i Sonnet 4, usprawniające kodowanie i rozumowanie. Google wprowadziło tłumaczenie mowy na żywo w Meet, generator wideo Veo 3 oraz agenta AI Mariner w przeglądarce. Pojawiły się też projekty open source jak nlweb (Microsoft) i Codex (OpenAI).
Głównym tematem był vibe-coding: intuicyjne pisanie kodu z AI przy użyciu LLM. Dla osób nietechnicznych to szansa na szybkie tworzenie Proof of Concept (POC) i prostych aplikacji, jednak z ryzykiem dotyczącym bezpieczeństwa kodu i jakości. Dla programistów, vibe-coding oznacza przyspieszenie pracy, ale wymaga starannego planowania, definiowania zasad (rulesów) i wykorzystania narzędzi takich jak Cursor czy Claude Sonnet z artefaktami.
W przyszłości vibe-coding może stać się standardem w branży, zmieniając rolę deweloperów w kierunku operatorów narzędzi AI do kodowania i recenzentów kodu. Nacisk zostanie położony na szybkie prototypowanie, automatyzację oraz nadzór nad jakością i bezpieczeństwem generowanych aplikacji.
METUPY:
AI Manager Day
📅 12 czerwca 2025, Rzeszów
🔹https://www.aimanagerday.pl/
BeefUp
📅 12 czerwca 2025, Katowice
🔹https://beefup.pro/
Pierwsze Otwarte Forum AI
📅 11-12 czerwca 2025, Warszawa
🔹 https://otwarteforumai.pl/
GameChanger AI
📅 27 czerwca 2025, Katowice
🔹https://gamechangerai.pl/
Śniadanie AI - Śląsk
📅 TBD, Katowice
🔹https://lu.ma/aislask
Konferencja "AI w edukacji - Systemy, Rzemiosła, Interesariusze"
📅 10 czerwca 2025, Wrocław
🔹https://lu.ma/un2pvvqe
📚 materiały:
🔹https://code.visualstudio.com/blogs/2025/05/19/openSourceAIEditor
🔹https://deepmind.google/models/veo/
🔹https://deepmind.google/models/project-mariner/
🔹https://www.anthropic.com/news/claude-4
🔹https://blog.google/products/workspace/google-workspace-gemini-may-2025-updates/
🔹https://www.anthropic.com/news/activating-asl3-protections
🔹https://news.microsoft.com/source/features/company-news/introducing-nlweb-bringing-conversational-interfaces-directly-to-the-web/
🔹https://blogs.windows.com/windowsexperience/2025/05/19/securing-the-model-context-protocol-building-a-safer-agentic-future-on-windows/
🔹https://www.theguardian.com/us-news/2025/may/15/trump-artificial-intelligence-uae
🔹https://analyticsindiamag.com/ai-news-updates/aws-launches-strands-agents-open-source-sdk-for-ai-agent-development/
🔹https://openai.com/index/introducing-codex/
Rozdziały:
00:00 Odliczanie
00:30 Wprowadzenie do AI Newsów
03:04 Podsumowanie wydarzeń w AI
06:33 Nowości ze świata AI
10:05 Innowacje Microsoftu i Anthropic
14:28 Nowe funkcje Google'a
17:59 Postępy w generowaniu wideo
22:22 Inteligencja emocjonalna w AI
26:10 Współpraca Trumpa z Emiratami
29:40 Projekt Mariner od Google DeepMind
31:26 Automatyzacja i narzędzia AI
33:14 Polecane wydarzenia i meetupy
43:50 Wprowadzenie do vibe-codingu
49:09 Bezpieczeństwo w vibe-codingu
59:55 Bezpieczeństwo w prostych aplikacjach
01:01:13 Eksperymenty z LLM i ich zastosowanie
01:02:46 Dobre praktyki dla osób nietechnicznych
01:05:55 Vibe coding: Jak zacząć?
01:11:04 Przyszłość vibe-codingu
01:17:40 Wyzwania związane z produkcją aplikacji
01:21:12 Prototypowanie i rola klienta w procesie
01:23:12 Zmiany w podejściu do tworzenia aplikacji
01:25:32 Planowanie i struktura kodu w IT
01:30:23 Rola AI w programowaniu i przyszłość programistów
01:35:22 Zastosowanie vibe codingu
Najważniejsze wydarzenia ze świata AI, które miały miejsce w kwietniu 2025!
📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI.
🔴 Subskrybuj i bądź na bieżąco!
🎙 Prowadzący:
🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/
🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski/
🔹Daniel Ura - https://www.linkedin.com/in/danielura/
W ramach tej audycji omówiono najważniejsze wydarzenia ze świata sztucznej inteligencji, które miały miejsce w kwietniu. Poruszono tematy takie jak generowanie wideo, zmiany w podejściu do nauki modeli AI, a także zastosowanie technologii w legislacji. Przedstawiono również nowości od firm takich jak NVIDIA i Google.
Rozmawiano o wyzwaniach związanych z wdrażaniem rozwiązań opartych na AI w środowisku biznesowym oraz o ewolucji modeli takich jak Google Gemini. Wskazano na dynamiczny rozwój Google na rynku sztucznej inteligencji oraz na przejęcie startupu Windsurf przez OpenAI.
W audycji wspomniano o nietypowych testach AI, takich jak udział robotów w półmaratonie, a także o problemach związanych z tzw. misalignmentem modeli, czyli rozbieżnością między ich działaniem a intencjami twórców. Zwrócono również uwagę na wpływ AI na edukację – szczególnie w kontekście testów maturalnych, gdzie technologia ma realny wpływ na wyniki uczniów.
Dyskutowano o przyszłości rynku pracy i o tym, jak sztuczna inteligencja będzie kształtować zapotrzebowanie na nowe umiejętności. Szczególną uwagę poświęcono przewadze modeli takich jak Google Gemini w kontekście obecnego wyścigu technologicznego.
W kolejnej części rozmowy skupiono się na lokalnych modelach AI. Omówiono ich zastosowania, wyzwania związane z regulacjami i bezpieczeństwem danych, a także wpływ na sposób programowania. Poruszono temat narzędzi wspomagających uruchamianie takich modeli oraz procesu ich kwantyzacji.
Podzielono się także praktycznymi doświadczeniami w pracy z lokalnymi modelami. Przedstawiono konkretne przypadki użycia, omówiono zalety tych rozwiązań oraz bariery, które nadal wymagają przezwyciężenia.
📚 materiały omawiane w odcinku:
🔹https://www.anthropic.com/news/research
🔹https://firebase.blog/posts/2025/04/introducing-firebase-studio/
🔹https://deepmind.google/technologies/gemini/flash/
🔹https://blog.google/products/gemini/gemini-live-android-tips/
🔹https://runwayml.com/research/introducing-runway-gen-4
🔹https://uk.news.yahoo.com/humanoid-robots-race-against-humans-120000716.html
🔹https://www.techrepublic.com/article/news-ai-era-experience-silver-sutton/
🔹https://www.zdnet.com/article/nvidia-launches-nemo-software-tools-to-help-enterprises-build-custom-ai-agents-for-tasks/
🔹https://www.techinasia.com/news/uae-ai-writing-laws
🔹https://openai.com/index/expanding-on-sycophancy/
🔹https://finance.yahoo.com/news/openai-agrees-buy-windsurf-3-002133843.html
🔹https://kobieta.onet.pl/wiadomosci/ai-napisala-mature-z-jezyka-polskiego-tyle-punktow-zdobyl-chatgpt/0j40l21
Rozdziały:
00:00 Wprowadzenie
02:09 Co ciekawego u nas?
06:41 Runway gen 4
10:16 Era doświadczeń w AI
13:07 AI w legislacji i regulacjach prawnych
15:47 NVIDIA NeMO
17:17 Nowości od Anthropica i Google
24:53 Gemini 2.5 i jego zastosowania
26:45 Ekspansja Google w AI
28:00 Roboty w akcji: Testy półmaratonu
29:57 OpenAI i przejęcie Windsurf
32:50 Problemy z modelami AI: Misalignment
37:06 Matura i AI: Nowe wyzwania w edukacji
41:21 Przyszłość rynku pracy i edukacji
46:57 Google Gemini: Nowe możliwości w AI
54:56 Wspomnienia z przeszłości w technologii
57:08 LLM i ich wpływ na programowanie
59:11 Lokalne modele: Dlaczego warto je rozważyć?
01:10:58 Regulacje i bezpieczeństwo w kontekście lokalnych modeli
01:14:32 Narzędzia do uruchamiania lokalnych modeli
01:16:22 Interakcja z lokalnymi modelami
01:20:05 Dostępne modele lokalne
01:24:42 Kwantyzacja modeli
01:30:07 Use-cases lokalnych modeli
01:34:00 Zakończenie
Czy cyfrowy sędzia AI już wkrótce zacznie wydawać wyroki, a dowody w postaci deepfake'ów zachwieją fundamentami sprawiedliwości?Odkryj, jak AI w sądach polskich może zmienić doświadczenia zwykłego obywatela, jakie zagrożenia niosą deepfake'i jako dowody oraz czy scoring społeczny to przyszłość wymiaru sprawiedliwości!W tym odcinku rozmawiamy o roli sztucznej inteligencji w wymiarze sprawiedliwości, digitalizacji polskich sądów oraz wyzwaniach związanych z wprowadzeniem nowych technologii. Poruszono kwestię obecnego stanu digitalizacji, obaw sędziów oraz przedstawiono przykłady zastosowania AI w innych krajach, podkreślając, że AI powinna wspierać, a nie zastępować ludzi w procesie sądowym.Omówiono potencjał sztucznej inteligencji w pracy sędziów oraz konieczność współpracy prawników z technologią. Zwrócono uwagę na znaczenie digitalizacji akt oraz zaprezentowano przykłady zastosowania AI w wymiarze sprawiedliwości w różnych krajach. Przedyskutowano również, jak AI w sądach polskich mogłaby przyspieszyć transformację cyfrową sądów oraz jakie korzyści przyniosłoby to zwykłym obywatelom w ich kontaktach z wymiarem sprawiedliwości.Następnie skupiono się na roli AI w arbitrażu i mediacji. Poruszono temat alternatywnych metod rozwiązywania sporów oraz tego, jak sztuczna inteligencja może wspierać te procesy. Rozróżniono arbitraż od mediacji, a także wyjaśniono, jak AI może wspierać mediację poprzez analizę tonów rozmów i tajne oferty.W drugiej części rozmowy omówiono wyzwania związane z deepfake'ami i ich wpływ na dowody cyfrowe w sądownictwie, podkreślając potrzebę czujności sędziów w obliczu tych nowych technologii. Przedstawiono regulacje AI Act oraz zagrożenia związane z systemami oceny obywateli.Przedyskutowano dystopijne wizje przyszłości, w której AI mogłoby wydawać wyroki sądowe na podstawie scoringu społecznego, co rodzi poważne pytania o etykę i prywatność. Rozmawiano o wpływie systemów social scoringu na wymiar sprawiedliwości oraz potencjalnych zagrożeniach i korzyściach związanych z ich wprowadzeniem.Na zakończenie podkreślono znaczenie ludzkiego nadzoru oraz etycznych aspektów związanych z inwigilacją i kontrolą społeczną. Wskazano również, jak AI wpłynie na zwykłego obywatela w kontakcie z sądem, analizując zarówno szanse na przyspieszenie postępowań i łatwiejszy dostęp do informacji, jak i zagrożenia związane z prywatnością i automatyzacją decyzji.🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/👥 Gość: https://www.linkedin.com/in/dr-patrycja-dolniak-50b059316/📕książka: https://www.profinfo.pl/sklep/sztuczna-inteligencja-w-wymiarze-sprawiedliwosci,587890.html⭐️ Zobacz też:🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFERozdziały:00:00 Dziś w odcinku01:36 Wprowadzanie01:50 Patrycja Dolniak02:58 Digitalizacja polskiego wymiaru sprawiedliwości05:59 Wyzwania i obawy związane z AI w sądach09:11 Przykłady zastosowania AI w innych krajach11:58 Przyszłość AI w polskim wymiarze sprawiedliwości23:36 Potencjał sztucznej inteligencji w pracy sędziów27:01 Współpraca prawników z technologią30:31 Digitalizacja akt i jej znaczenie32:58 Przykłady zastosowania AI w wymiarze sprawiedliwości35:32 Obawy związane z wykorzystaniem AI w sądownictwie39:34 Hybrydowe rozwiązania w orzecznictwie46:49 Rola AI w arbitrażu i mediacji46:54 Alternatywne metody rozwiązywania sporów55:11 Sztuczna inteligencja w mediacji01:03:29 Deepfake'i i dowody cyfrowe01:13:04 Wyzwania związane z deepfake'ami w prawie01:18:15 Ryzyko systemów oceny obywateli w Polsce01:26:07 Dystopijna wizja sądownictwa opartego na scoringu01:34:04 Wymiar sprawiedliwości a social scoring01:41:01 Zagrożenia i korzyści systemów social scoringu01:48:32 Polecajki01:53:23 Zakończenie
Najważniejsze wydarzenia ze świata AI, które miały miejsce w marcu 2025!Omówimy największe przełomy, zaskoczenia i kontrowersje, które wpłynęły na rozwój sztucznej inteligencji w ostatnich tygodniach.📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI.🔴 Subskrybuj i bądź na bieżąco!🎙 Prowadzący:🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski/🔹Daniel Ura - https://www.linkedin.com/in/danielura/W ramach tej audycji omówiono najnowsze wydarzenia ze świata sztucznej inteligencji, w tym postępy w robotyce, rozwój nowych modeli językowych oraz przyszłość zakupów online z wykorzystaniem AI. Szczególną uwagę poświęcono również generowaniu obrazów przez sztuczną inteligencję i jego zastosowaniom w branży kreatywnej.Rozmowa skupiła się na najnowszych osiągnięciach w generacji obrazów, nowych funkcjach w modelach AI oraz sposobach ich interakcji z użytkownikami. Pojawił się też temat wpływu tej technologii na przemysł filmowy – zarówno w kontekście nowych możliwości, jak i wyzwań. Nie zabrakło również dyskusji o kontrowersjach wokół modeli takich jak Gemini 2.5.Kolejnym ważnym wątkiem były koszty korzystania z API oraz nowe rozwiązania Microsoftu w dziedzinie AI. Poruszono także temat agentów AI, ich ograniczeń oraz standardów w komunikacji z modelami językowymi. Pojawiły się pytania o to, jak sztuczna inteligencja podejmuje decyzje i jakie mogą być jej przyszłe zastosowania w autonomicznych systemach. Poruszono także temat standardu Model Context Protocol (MCP), który może znacząco uprościć integrację różnych narzędzi w komunikacji z modelami językowymi. Omówiono jego działanie, kluczowe zalety oraz możliwości, jakie otwiera dla dalszego rozwoju AI.W rozmowie pojawił się również wątek zagrożeń związanych z fałszywymi informacjami generowanymi przez AI. Dyskutowano o bezpieczeństwie danych, wpływie tej technologii na nawyki użytkowników oraz potrzebie edukacji w zakresie odpowiedzialnego korzystania z nowych narzędzi. Podkreślono też znaczenie odpowiedzialności w rozwoju AI oraz przyszłość protokołów zabezpieczających dane użytkowników.📚 materiały:🔹https://www.anthropic.com/news/web-search🔹https://developers.googleblog.com/en/experiment-with-gemini-20-flash-native-image-generation🔹https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/?utm_content=🔹https://azure.microsoft.com/en-us/blog/announcing-the-responses-api-and-computer-using-agent-in-azure-ai-foundry🔹https://www.nvidia.com/en-us/ai/cosmos🔹https://youtu.be/29xLWhqME2Q🔹https://github.com/manycore-research/SpatialLM🔹https://labs.amazon.science/blog/nova-act🔹https://x.com/ManusAI_HQ/status/1905551149283115359🔹https://openai.com/index/introducing-4o-image-generation🔹https://deepmind.google/discover/blog/gemini-robotics-brings-ai-into-the-physical-worldRozdziały:00:30 Odliczanie00:00 Wprowadzenie02:03 Relacje z konferencji i wydarzeń AI06:27 Nowe technologie w robotyce10:20 Postępy w robotyce i interakcji z AI14:46 Nowe modele językowe i ich zastosowania19:27 Przyszłość zakupów online z AI21:54 Generowanie obrazów przez AI24:18 Ewolucja Generacji Obrazów27:34 Interakcje z Użytkownikami i Nowe Funkcje30:02 Przyszłość AI i Jego Wpływ na Przemysł Filmowy33:39 Nowinki Technologiczne w AI39:26 Wyzwania i Kontrowersje w Generacji Obrazów43:25 Nowe Możliwości z Gemini 2.548:19 Koszty i efektywność API52:24 Nowe rozwiązania Microsoftu w AI56:51 Wyzwania i przyszłość agentów AI01:00:09 Standardy w komunikacji z LLM01:04:04 Decyzje i myślenie w AI01:11:19 Złożoność sieci agencyjnej01:13:40 Problemy z modelami AI i ich zastosowaniem01:15:01 Zagrożenia związane z fałszywymi informacjami01:17:47 Bezpieczeństwo danych i lenistwo użytkowników01:21:03 Edukacja i odpowiedzialność w korzystaniu z AI01:25:39 Przyszłość protokołów i ich zabezpieczeń01:30:30 Podsumowanie i zakończenie dyskusji
Czy AI odbiera programistom pracę, czy może wręcz przeciwnie – czyni ich bardziej wydajnymi i produktywnymi?Sprawdź, jak halucynacje AI, vibe coding, pair programming i personalizacja w kontekście AI kształtują przyszłość programowania!🔔 Subskrybuj, aby nie przegapić nowych odcinków!Tym razem rozmawiam z Marcinem Czarkowskim i Przemkiem Smyrdekiem, współzałożycielami Przeprogramowani.pl i Opanuj.AI, którzy pomagają programistom łączyć umiejętności techniczne z myśleniem produktowym oraz świadomym zarządzaniem karierą. Prowadzą szkolenia z zakresu genAI oraz pokazują, jak efektywnie wykorzystywać AI w programowaniu.W tym odcinku rozmawiamy o wpływie sztucznej inteligencji na programowanie. Zastanawiamy się, jak AI zmienia branżę IT, jakie narzędzia są obecnie wykorzystywane i w jaki sposób programiści mogą dostosować swoje projekty do współpracy ze sztuczną inteligencją.Poruszamy temat halucynacji w AI, omawiamy ograniczenia modeli językowych oraz ich wpływ na jakość generowanego kodu. Dyskutujemy również o znaczeniu personalizacji AI w projektach oraz o tym, jak technologia ta może wspierać programistów w codziennej pracy.Nie zabrakło rozmów o kluczowych aspektach związanych z dokumentacją i konwencjami programistycznymi. Analizujemy wyzwania, jakie niesie ze sobą legacy code oraz konieczność refaktoryzacji. W tym kontekście podkreślamy również rolę testów jednostkowych i wykorzystania historii Git do skuteczniejszego zarządzania kodem.W trakcie dyskusji przyglądamy się nowym technikom, takim jak vibe coding, oraz zwracamy uwagę na rolę Code Review w zapewnianiu bezpieczeństwa i jakości kodu. Eksperci dzielą się swoimi doświadczeniami, podkreślając znaczenie umiejętności miękkich oraz otwartości na nowe technologie.Na koniec zastanawiamy się, jak zmieniają się wymagania na rynku pracy dla programistów i jakie kompetencje będą kluczowe w przyszłości.🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/👥 Goście:🔹Marcin Czarkowski: https://www.linkedin.com/in/mkczarkowski/🔹Przemek Smyrdek: https://www.linkedin.com/in/psmyrdek/⭐️ Zobacz też:🔹#12 Adam Gospodarczyk - https://www.youtube.com/watch?v=LBG3_L-sbJA🔹#9 Piotr Brzyski - https://www.youtube.com/watch?v=fhpw_5-GWHg🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE🔴 Nie da się już podważyć mocy LLM w programowaniu. 10xDevs to najnowszy program pokazujący nowe oblicze kodowania z wykorzystaniem generatywnej sztucznej inteligencji. Zacznij świadomie stosować AI w całym cyklu wytwarzania oprogramowania - od generowania POC/MVP, przez refaktoryzację kodu legacy, aż po testy i CI/CD.👉 http://10xdevs.pl/📚 linki:🔹https://opanuj.ai/podcast/🔹https://10xrules.ai/🔹https://lmarena.ai/ 🔹https://livebench.ai/🔹https://survey.stackoverflow.co/2024/ai/ 🔹https://www.oneusefulthing.org/🔹https://open.spotify.com/show/2MAi0BvDc6GTFvKFPXnkCL🔹https://tldr.tech/aiRozdziały:00:00 Dziś w odcinku01:08 Wprowadzanie01:23 Marcin Czarkowski i Przemek Smyrdek02:56 Transformacja branży IT dzięki AI06:11 Narzędzia AI w programowaniu08:48 Porównanie narzędzi AI: Kursor, Copilot i Windsurf11:48 Modele AI i ich integracja w edytorach15:09 Personalizacja AI w projektach programistycznych22:15 Dopasowanie projektów do sztucznej inteligencji25:32 Ograniczenia modeli językowych26:42 Współpraca z AI w programowaniu30:34 Dokumentacja i konwencje w projektach34:27 Zrozumienie kodu legacy38:08 Generowanie testów i refaktoryzacja43:15 Wykorzystanie historii GIT w projektach46:14 Wizualizacja kodu i historia Gita48:04 Halucynacje w generowaniu kodu51:03 Bezpieczeństwo kodu i zarządzanie sekretami55:44 Jakość kodu i rola Code Review01:01:12 Vibe Coding jako nowa technika programowania01:07:56 Rady dla początkujących programistów01:12:12 Rola sztucznej inteligencji w nauce programowania01:16:58 Zmiany w kompetencjach na rynku pracy01:20:33 Otwartość na zmiany i eksperymentowanie z AI
Dowiedz się, jakie błędy popełniają firmy przy wdrażaniu AI i jak ich uniknąć! Jakie wyzwania stoją przed sztuczną inteligencją w Afryce? Czy kultura i język mają wpływ na skuteczność modeli AI?🔔 Subskrybuj, aby nie przegapić nowych odcinków!Tym razem moją gościnią jest Katarzyna Hewelt, Data Scientistka, specjalizująca się w tworzeniu rozwiązań opartych na sztucznej inteligencji. Obecnie prowadzi dział AI & Data w firmie Resolutiion®. Regularnie występuje na konferencjach, gdzie dzieli się swoim doświadczeniem i wiedzą z zakresu uczenia maszynowego oraz AI.W tym odcinku rozmawiamy o sztucznej inteligencji, jej zastosowaniach w Afryce oraz wyzwaniach związanych z jej wdrażaniem w organizacjach.Kasia dzieli się swoimi doświadczeniami z konferencji Afrika Tech. Opowiada o czwartej rewolucji przemysłowej oraz roli kultury i języka w modelach AI. Poruszamy także temat pracy zdalnej jako digital nomad oraz omawiamy kluczowe kroki do skutecznego wdrożenia AI w firmach.W rozmowie skupiamy się na najważniejszych aspektach związanych z wdrażaniem sztucznej inteligencji w organizacjach. Podkreślamy znaczenie edukacji, dobrze przemyślanej strategii oraz monitorowania rozwiązań AI.Zwracamy uwagę na wyzwania związane z danymi oraz analizujemy różnice między modelami open source a closed source. Dyskutujemy również o najczęstszych błędach popełnianych przez organizacje i przedstawiamy kluczowe wskazówki, które mogą pomóc w skutecznym wdrożeniu sztucznej inteligencji.⭐️ Zobacz też:- #12 AI może więcej, niż myślimy i mniej niż nam się wydaje | Adam Gospodarczyk https://www.youtube.com/watch?v=LBG3_L-sbJA- #9 AI jako broń masowej dezinformacji? - Hodowanie umysłów i manipulacja za grosze | Piotr Brzyski https://www.youtube.com/watch?v=fhpw_5-GWHg- #5 Jakub Mrugalski - zautomatyzuj zadania, zyskaj czas na kreatywność https://www.youtube.com/watch?v=gEhMWWaXfkQ- #4 Mateusz Chrobok - jak obchodzić zabezpieczenia #AI i chronić aplikacje z sztuczną inteligencją https://www.youtube.com/watch?v=AWC6c-fOcFE- #1 Grigorij Dudnik | Agenty AI - Klucz do automatyzacji programowania https://www.youtube.com/watch?v=tOPKf9XiVXo🎙 Prowadzący:🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/🔗 Kontakt do Kasi:👉 LinkedIn: https://www.linkedin.com/in/katarzyna-hewelt/📚 Polecane materiały:👉 Matthew Berman - https://www.youtube.com/@matthew_berman👉 Dave Ebbelaar - https://www.youtube.com/@daveebbelaar👉 blog Sinana - https://ai-office-hours.beehiiv.com/👉 Remek Kinas - https://www.youtube.com/@RemekKinasRozdziały:00:00 - Dziś w odcinku01:39 - Wprowadzenie01:55 - Katarzyna Hewelt02:22 - Doświadczenia z konferencji Afrika Tech05:56 - Czwarta rewolucja przemysłowa i jej wpływ na Afrykę09:05 - Sytuacja AI w Afryce11:51 - Kultura i język w modelach AI14:59 - Podróże i praca zdalna jako digital nomad18:06 - Wdrażanie AI w organizacjach20:54 - Kroki do skutecznego wdrożenia AI27:12 - Edukacja i strategia w AI29:20 - Wyzwania wdrażania AI32:25 - Monitorowanie i ewaluacja rozwiązań AI34:01 - Znaczenie danych w AI38:27 - Modele open source vs. closed source44:59 - Błędy w wdrażaniu AI i kluczowe wskazówki49:56 - Polecajki52:07 - Zakończenie#sztucznainteligencja #AI #machinelearning #rewolucjaprzemysłowa #technologia #automatyzacja #transformacjadigitalowa #strategia #monitorowanie #dane #opensource #closedsource #innowacje #startup #POC #cyfryzacja #przemysł40 #decyzjebiznesowe #Anthropic #OpenAI #modelenjezykowe #AIwfirmie #digitalizacja #transformacjacyfrowa #innowacyjnabiznesie