CTO Morning Coffee

Kilka miesięcy temu AI wzięła cały świat "szturmem." Świat niekoniecznie się poddał, ale AI jest wszędzie. Pytanie - "Czego AI nie powie o AI?"

W tym odcinku porozmawialiśmy o AI, wpływie modeli na pracę w IT i nie tylko, narzędzia i ich rozwój, zagrożenia i ograniczenia tych narzędzi.  Ta rozmowa odbyla się tuż przed opublikowaniem modelu GPT-4 przez OpenAI. To dobry moment też na to, aby zobaczyć, na ile nasze spostrzeżenia nadal są aktualne.

IMO ... są :)!

~ ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~
‼️Sharing is caring ‼️
Uważasz, że kogoś ten temat mógłby zainteresować, podziel się tym linkiem 👉 https://link.chtbl.com/Uysg_-K6
~ ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~  ~

O czym rozmawialiśmy w naszej rozmowie:
  • ✅ Rys historyczny narzędzi AI, czyli jak rozwijają się AI/LLMs dla programistów by Wojtek Ptak
  • ✅ Gdzie oprócz developmentu, pojawia się AI w narzędziach? 
  • ✅ Czy narzędzia AI rozwijają małe firmy czy jednak wszystko trzymają w garści duzi gracze
  • ✅ Z jakich narzędzi korzystamy(liśmy) na codzień (stan na koniec roku 2022) 
  • ✅ Ile kosztuje wytworzenie modeli LLM? 
  • ✅ Jakie rynki i zajęcia mogę podlegać "disruption" przez modele LLM
  • ✅ W którą stronę idzie rozwój modeli AI i ich adopcji. 
  • ✅ Zagrożenia i ograniczenia związane z użyciem modeli LLM
  • ✅ Jak AI może wpłynąć na dostęp do wiedzy i rozwój społeczeństwa 
  • ✅ Jak AI wpłynie na nasze zajęcia / pracę / życie 

=============================================

 CTO Morning Coffe tworzą:

👉 Sebastian Gębski:
      🔵  Twitter: https://twitter.com/liveweird
      🔵  Blog: https://no-kill-switch.ghost.io/

👉 Wojtek Ptak:
      🔵  Twitter: https://twitter.com/wjptka

👉 Tomek Onyszko
:
      🔵  Twitter: https://twitter.com/tonyszko
      🔵  Blog: https://www.onyszko.com/
      🔵  Newsletter: https://signup.onyszko.com/

Live long and prosper 🖖 

---
To nagranie jest zapisem spotkania na Twitter Spaces, tak jak zostało przeprowadzone, bez dodatkowej obróbki. Zapraszamy do dołączenia do przyszłych spotkań na https://www.ctomorning.coffee

Creators & Guests

Host
Sebastian Gębski
Geek, engineer, blogger, codefella, serial reader. In the daylight: Principal SA for @awscloud (Startups, CEE). ex-CTO. I speak here for myself only.
Host
Tomasz Onyszko
Founder, entrepreneur and CTO - I write about building company and career in tech. I observe tech and society and share my opinions
Host
Wojtek Ptak
Learner, teams & products builder, DDD & ML mixer, leader, contributor, and freeride biker by ❤️ working as @RevolutApp’s Head of Engineering. He/him.

What is CTO Morning Coffee ?

Leadership. Technology. Entrepreneurship. Po polsku 🇵🇱

Sebastian, jest nas dwóch.

Jest nas trzech.

Marek, Maciek Stopa, Polska.

Cześć, cześć.

Jak tam z rana, tuż przed świętami?

Bardzo dobrze.

No, dzisiaj będzie ciekawy dzień, bo patrząc na newsy, które przyszły przez noc...

Ja jeszcze nic nie widziałem.

No, i dzisiaj był bezprecedensowy wyciek z Last Passa.

Będzie wielka awantura.

A, tak, a to już wczoraj.

Ok, to ja jestem z pewnym opóźnieniem.

Ale czekaj, dane użytkowników są enkrypted.

Wiesz co, tak.

Oni nigdzie nie przechowują tych Master Passów.

Natomiast...

Nie, nie, ja wiem, trochę ironicznie, bo taki był komunikat, oczywiście.

Natomiast, może być ciekawie, to jest gruby temat.

Nie, no.

Jak ktoś zapuści ten Brute Force'a na tym, no to dłużo się okaże, kto miał jakie hasło.

Oj, tak.

Tak.

Dobrze, Wojtek.

Dzień dobry.

Jesteś z nami, jesteś.

Dzień dobry, słyszycie mnie?

Używasz Last Passa?

Nie, nie używam Last Passa.

Muszę przyznać.

A w ogóle powiedz...

W ogóle powiedzcie, skąd mam najechać dzisiaj?

Czy już gdzieś na urlopach?

Na jakichś rozjazdach?

Ja wróciłem z urlopu do domu i jutro wyjeżdżam z powrotem, więc mam krótką przerwę, będąc w Warszawie.

No, super.

Ja muszę przyznać, że słuchajcie, w tym roku zaplanowałem sobie urlop dopiero w styczniu.

Mam zamiar wyczyścić sobie taką osobistoń, zawodową, tudulistę przed następnym tygodniem, więc liczę na parę spokojnych dni.

A ostatnio wieczorem spędzam na gotowaniu, bo w rodzinie gotuję przed świętami, więc w tym roku wyjątkowo, słuchajcie, dosyć sporo pogotowałem.

Mogę się uprawiać.

Wow, imponujące.

Ja w życiu bym nie dotknął czegokolwiek, jeżeli chodzi o gotowanie.

Nie dlatego, że uważam, że to jakaś nie moja rola, ale po prostu wiem, jaki dramatyczny byłby efekt, więc oszczędzam takich doświadczeń swoim bliskim.

No, chyba, że...

I tutaj tanecznym krokiem weź wziął przepis od Czad Giełta i...

Nie wiem, czy to przepis był wystarczający, ale właśnie, słuchajcie, bo my dzisiaj nie o tym, nie o przygotowaniu, nie o wakacjach, nie o gotowaniu, tylko mamy inny, ciekawszy temat.

Temat lżejszy i chyba po raz pierwszy taki temat, przynajmniej do którego ja nie czuję się ekspertem, bo zwykle jednak mówimy o czymś, z czym czujemy się całkiem swobodnie, a dzisiaj chyba będzie temat, który gdzieś tam porusza nas wszystkich, ale niekoniecznie też czujemy się jakimiś must-hackers, jeżeli chodzi o ten temat.

Ale może zanim przejdziemy do samego tematu, to jeszcze ten garść takich ogłoszeń parafialnych albo przypomnień.

Czyli tak, spotkania są dla wszystkich, każdy może zabrać głos.

My oczywiście moderujemy, natomiast jeżeli ktoś chce zadać swoje pytanie, odpowiedzieć na jakieś pytanie, lub po prostu podzielić się swoimi spostrzeżeniami, prośba o podniesienie tej przysłowiowej łapki na Twitterze.

My będziemy się starali patrzeć, czasami możemy coś przeoczyć, więc nie zmieńcie się, podnoście uparcie.

Jeszcze takie kolejne małe przypomnienie.

Jeżeli chodzi o Twitter Spaces, to będąc na kliencie webowym, nie da się mówić, da się tylko słuchać.

Więc jeżeli ktoś chce zabrać głos, to konieczny jest klient mobilny.

Kolejna ważna rzecz.

Mamy swojego landing page'a, cityofmalling.coffee, tam można się zapisywać do powiadomień, tam można zobaczyć archiwum odcinków, tam jest też link do naszego podcastu, który po prostu jest zbiorem odcinków nagranych, które są sukcesywnie uzupełniane.

I jeszcze jeżeli chodzi o taki mały Code of Conduct, szanujmy siebie wzajemnie.

Nie jeździmy po żadnych konkretnych osobach, konkretnych firmach.

Jeżeli coś krytykujemy, to krytykujemy postawy, zachowania, a nie ludzi czy firmy, którzy, które się takimi postawami, być może według naszej oceny, w pewnym momencie zachowali.

Czy coś jeszcze zapomniałem, panowie?

Prosimy, ja powiem, że zrobiliśmy całą robotę dzisiaj.

Właśnie widzę, że tam pątel odpalony od samego rana.

Tak, to o czym mówiliście, bo ja też o tym myślałem, że to będzie pierwszy odcinek, gdzie w większości będziemy mieli opinie, a nie jakieś fakty.

A mogę zacząć od faktów, słuchajcie.

Dobrze, zaczniesz od faktów.

Tak, bo słuchajcie, jeżeli jest to dla was ok, to w związku z tym, że interesowałem się tym tematem, to też przygotowałem taki wstęp, żeby pokazać też przede wszystkim, jak bardzo szybko rozwija się materia, której dotykamy i o której będziemy rozmawiać.

Więc jeżeli to dla was jest ok, to taki szybciutki wstęp.

Pozwolę sobie zająć mikrofon przez parę minut, ponieważ słowem wstępu, temat na naszej tapecie, na naszym tapecie pojawił się parę tygodni temu i co jest ciekawe, to było przed czat GPT, więc możemy się tutaj pochwalić, że już od jakiegoś czasu planowaliśmy odcinek taki zakańczający ten rok.

Chcieliśmy podsumować, jak właśnie może zmienić się rola programisty w przyszłych latach i wokół właśnie programowania w związku z rozwojem narzędzi AI.

I dosłownie parę dni później wyszedł czat GPT i internet oszalał, więc taka ciekawostka.

I ja bardzo chętnie teraz właśnie opowiem w związku z tym, że się interesowałem tym tematem od kilku lat, jak w ogóle rozwija się.

Jak wiecie w ogóle, żeby zacząć dać tutaj troszeczkę kontekstu, jaki jest w ogóle problem do rozwiązania i dlaczego firmy aż tyle inwestują, bo jeżeli będziecie właśnie, będziemy sobie tu rozmawiać, jaki jest koszt w ogóle wytworzenia tego typu produktów, to zobaczycie, że on jest gigantyczny.

I dlaczego firmy w ogóle są zainteresowane, żeby inwestować?

Otóż największym powodem rozwoju tych narzędzi jest talent gap przede wszystkim.

Czyli jak wiecie, koszt zatrudnienia utrzymania programistów i inżynierów jest ogromny.

W samej Polsce mówi się, że mamy za mało o 300 tysięcy osób, jeżeli chodzi o nasz zawód.

Także wiele firm, jak wiecie, boryka się z tym problemem.

Można oczywiście zatrudniać więcej osób, można ich wspomóc.

Też myślę, że dzisiaj będziemy rozmawiać, jaka jest rola tych narzędzi.

Dużo się działo w tym temacie.

Jak pamiętacie, około 2018, 2019 roku Microsoft kupił GitHuba.

Wiele osób się zastanawiało, dlaczego.

Odpowiedź była dosyć oczywista, dlaczego.

Ktoś dostał dostęp do całego kodu źródłowego.

Z czasem z bagami, z komentarzami.

Nic, tylko czekać na rozwój wydarzeń.

Ale cała historia rozpoczęła się gdzieś indziej i świat widział papery wypuszczone, czyli publikacje naukowe wypuszczone w innej firmie.

Otóż Facebook w 2018 roku pod koniec 2018 roku, więc to 4 lata dokładnie, wypuścił jeden z pierwszych paperów, który traktował o pewnym automatycznym podchodzeniu kodu Getafix.

Więc myślę, że w linkach chętnie Wam podlinkuję.

Jest też prezentacja Facebooka na temat Getafixa.

Getafix to był model, którym Facebook się pochwalił, że działał już w momencie publikacji na produkcji, który jeżeli chodzi o komitowany kod, sprawdzał czy bugi, które najczęściej się pojawiają, które były wcześniej raportowane i poprawiane, pojawiają się w kodzie, który jest komitowany przez programistów i automatycznie sugerował poprawy tych bugów.

On działał przede wszystkim na Androidzie i na Javie, później pokazały się kolejne jego implementacje, między innymi w Pythonie.

Nie pamiętam, jak to było z iOS-em, przyznam szczerze.

Więc jak już zobaczycie, Facebook osiągnął bardzo ciekawą rzecz, automatyczne poprawianie najczęściej spotkanych bugów razem z już z komitami.

Ciekawa rzecz.

Następnie, kilka, bodajże rok później, o ile dobrze pamiętam, pojawił się Aroma, również z Facebooka.

Aroma to było narzędzie, które można by powiedzieć jest protoplastą tego, co widzimy w dzisiejszych narzędziach, czyli tak naprawdę to był model, który wykorzystywał wszystkie, całą wiedzę Facebooka na temat kodu, który on posiadał oraz Facebook pochwalił się w paperze, że popularne posty z Stack Overflow w celach rekomendacji najlepszych rozwiązań i najlepszych wzorców projektowych.

Innymi słowy, głównym celem tego narzędzia było upewnienie się, że rozwiążemy jeden bardzo ważny problem, mając w stylu pro inżynierów, różnych stylów pracy nad kodem, różnego rodzaju podejścia do tych samych problemów i proponujemy ustandaryzowane podejście.

Możecie sobie wyobrazić co to znaczy z reguły, prawda?

Dużo łatwiejsze code review, dużo lepsza jakość, dużo lepsze utrzymanie, więc to narzędzie działało już od 2019 roku w Facebooku.

Przez chwilę, przyznam szczerze, w tym aspekcie działo się troszeczkę mniej i przycichło.

Jednym z narzędzi, które zostało wypuszczone w międzyczasie był Kite.

Kite był wypuszczony mniej więcej w tym samym czasie, to był pierwszy projekt, jeden z pierwszych publicznych projektów, który oficjalnie mówił, że tworzony jest AI do wspomagania programistów.

Mniej więcej w 2019-2020 roku Kite już można było sobie zainstalować, jeżeli chodzi o Python, przede wszystkim on z Pythona wspomagał bardzo dobrze, były próby innych języków i faktycznie to było takie wrażenie ala GitHub, Copilot, gdzie jeżeli zaczynaliśmy pisać kod, on rozpoznawał naszą intencję i podpowiadał kod, który istnieje.

Bardzo ważna rzecz się wydarzyła, do której wrócę, Kite ostatnio się zamknął i do niego za chwileczkę wrócę, dlaczego.

Świat miał kolejny rok oddechu mniej więcej i słuchajcie, jak pamiętacie w latem tamtego roku, czyli dokładnie jak sobie sprawdziłem, to było w sierpniu tamtego roku, Open AI wypuściło tak zwany kodeks i kodeks był bardzo ciekawym rozwiązaniem, ponieważ weszło współpracę kilka lat wcześniej z Microsoftem, który oczywiście kupił GitHuba, zassał sobie GitHuba, dostał infrastrukturę od Microsoftu i zbudował tak zwany large language model w oparciu o GPT-3, czyli o jeden z tych naszych teraz najbardziej popularnych modeli do generowania języka naturalnego i wyszkolił go specjalnie do generowania kodu i przez kilka miesięcy było, był tylko news, były prezentacje, że coś takiego istnieje, oficjalne języki wspierane to były przede wszystkim oczywiście te najbardziej popularne, czyli Python, JavaScript, Java, Go i TypeScript i przez chwilę to umilkło, następnie to był listopad, grudzień tamtego roku, jak pamiętacie, pojawił się na świecie CoPilot, czyli produkt komercyjny GitHuba wykorzystujący właśnie silnik, który się nazywa OpenAI Codex, komercyjnie, więc teraz już oczywiście jeżeli ktoś korzysta z CoPilota, będziemy na pewno o tym też rozmawiać, używa Codexu i...

Mały wstrząs, tylko dajcie mu tę łapkę, kto pracował z CoPilotem.

Ja od razu mogę dać łapkę.

Tak, od razu mogę dać łapkę.

Słuchajcie, ja cały czas korzystam z CoPilota z ciekawości, on się też bardzo fajnie rozwija.

I znowu świat...

Świat oczywiście już stał w wizji, jeżeli wypuszczono CoPilota, co to oznacza, o efektach, prawda, i skuteczności CoPilota myślę, że za chwileczkę sobie porozmawiamy.

Świat tym razem nie dostał roku dwóch oddechu.

Jak wiecie, trochę mniej.

Parę tygodni temu światło dzienne ujrzał czad GPT, z którego prawdopodobnie większość z Was miała okazję korzystać.

Ogromną ciekawostką jest to, że jest to model również rozwijający GPT-free, ale świetny, jeżeli chodzi o generowanie wszelkiego rodzaju tekstu, łącznie z kodem, natomiast jego, przede wszystkim jego przewaga, na którą będę chciał zwrócić w naszej dyskusji też uwagę, jest to, że on potrafi komentować kod, potrafi sugerować na poprawę bugów z wytłumaczeniem, dlaczego dana sugestia według niego jest właściwa, to czy tam jest faktycznie zawarta jakaś inteligencja w tym rozwiązaniu mam nadzieję będzie przedmiotem naszej dyskusji i tak naprawdę, jak wiecie, świat oszalał trochę, bo ten model potrafi też jedną niesamowitą rzecz, która wcześniej nie była widoczna w poprzednich modele, mianowicie tłumaczenie z jednego języka na drugi, to jest też bardzo ciekawe i kończąc ten taki szybki wstęp do naszej dyskusji, ja jeszcze specjalnie przygotowując się do naszego spotkania, skorzystałem z narzędzia, które jest teraz bardzo chwalone, bardzo popularne i też podbija salony twitterowe, jeżeli chodzi o szybkie generowanie kodu, mianowicie jest to narzędzie low-code, które się nazywa repit, które służy też do, jest bardzo, prawdopodobnie mogliście być targetowani reklamami repita, że mogę programować wykorzystując telefon i przeglądarkę web i mogę sobie całkowicie pisać w danym języku, tam mam całe środowisko uruchomieniowe, testowe, mogę sobie zbudować dodeploymentu, bardzo, bardzo łatwo, ta idea jest taka, żeby oczywiście nie mając wiedzy inżynierskiej, móc już dostarczać jakieś rozwiązania i mniej więcej dwa tygodnie temu repit pochwalił się, że również dołączono do niego AI generation kodu, czyli tak naprawdę nie dość, że mogę programować z telefonu, mogę sobie to rozwijać, testować i tak dalej, to jeszcze mi AI podpowiada, co zrobić.

Tu jesteśmy, wiemy, że za parę miesięcy wyjdzie GPT4, czyli czwarte rozdanie, jeżeli chodzi o ten model.

Jest też również wiele innych modeli, bardzo ciekawych, między innymi jest AlphaCode z DeepMind, natomiast o nim nie wiemy aż tak dużo, chodzą słuchy, że Google bardzo z bardzo dużą rezerwą podchodzi do generowania kodu i sam nie promuje tych rozwiązań wewnątrz u siebie w firmach.

Tu stawiam kropkę, komentarze, słuchajcie, wszystkich zapraszam do dyskusji.

Pierwsze moje pytanie do moich współprowadzących oraz do Was, słuchajcie, kto korzystał z jakiego i kto mniej więcej znał jakie rozwiązanie?

Może o czymś zapomniałem, co warto wspomnieć też, jeżeli byście chcieli dodać.

Wiesz co, to znaczy tak, ja tam się zapytałem Ciebie, podeślij mi replik, bo ja replik kojarzę, ale z czegoś kompletnie innego.

Jak dodali AI, to tak zwane, to się wcale nie dziwię, bo oni robią całe środowisko do kodowania po prostu, żebyś nie musiał mieć swojego środowiska lokalnie.

Te rzeczy, które powiedziałeś, to chyba wszystko z tego, co ja też kojarzyłem i jeszcze pewnie kilka, których ja nie kojarzyłem.

Dla mnie taka obserwacja z boku trochę jest, znaczy dwie.

Jeden, zauważcie, że te narzędzia i to wszystko rozwijają nie ci głównie gracze, może wspierani, tak jak OpenAI, ale że to robią jednak nie firmy typu właśnie Microsoft, Google, Amazon i tak dalej, tylko te mniejsze i rozwijają tą branżę.

A druga rzecz to jest taka, bo Ty się skupiłeś na kodowaniu i to tak, bo to jest pewnie temat, który najszybciej dotyka, ale to jest cała gama rozwiązań, bo silnik jako silnik, ale generalnie to, co się dzieje dookoła niego, czyli ludzie zaczęli bardzo szybko eksperymentować z użyciem tego w różnych zastosowaniach i tutaj moja obserwacja w ogóle jest taka, że bardzo szybko się to uproduktowiło.

Mamy generalnie silniki, które wyszły i równocześnie powstają API, które pozwalają z nich korzystać, coś, co pozwala bardzo szybko budować na nich.

Więc narzędzi jest masa, bo są plug-iny do przyglądarek, są plug-iny do IDE, które podpowiadają.

Ja tam potestowałem trochę takich różnych rozwiązań i dużo wcześniej mieliśmy dużo wcześniej mieliśmy wszystko, co wspiera jakikolwiek copywriting i tak dalej, więc oprócz kodowania to to zmienia jeszcze bardzo dużo innych branż i to warto też na tym na tym trochę się, na to trochę popatrzeć.

Ja z racji tego na czym pracuję zawodowo to też miałem do czynienia z dużą ilością takich narzędzi.

Akurat jeżeli chodzi o copilota to miałem okazję się powiesić dosłownie chwilę, natomiast miałem okazję testować też w wersji wewnętrznej code whisperera.

To jest taki copilot tylko zrobiony przez AWS.

Mam też okazję od dłuższego czasu pracować z czymś, co się nazywa tab9 i to jest zupełnie inny model.

To jest też wykorzystanie sztucznej inteligencji pracy programistów, natomiast tamten model koncepcyjny nie jest oparty o takie generatywne AI.

Działa to trochę inaczej, moim zdaniem lepiej, ale do tego też możemy dojść później.

Miałem też okazję dotknąć różnych narzędzi właśnie do generowania czegoś w oparciu o AI.

Trochę innych tak jak powiedział Tomek, może nie wiem, domenach czy obszarach.

Oczywiście pewnie wszyscy słyszeli o DALI, o stable diffusion i tak dalej, natomiast mam też inne narzędzia np. do generowania muzyki, do generowania np. podpowiedzi jakichś rekomendacji związanych z środowiskiem DevOpsowym, czyli gdzie powinniśmy coś zoptymalizować, gdzie mamy potencjalny punkt, gdzie wydarzy się jakaś awaria i to są takie narzędzia, które stają się coraz sprytniejsze.

Kiedyś one były bardzo proste, można by powiedzieć, zwykły system ekspertowy, teraz one są bardziej sublimowane i oparte właśnie nie o jakieś proste reguły IFO-we, tylko o modele wytrenowane na jakichś dużych wolumenach faktycznych systemów, które się tam działy.

Tak jeszcze, żeby tutaj dopowiedzieć dwie rzeczy.

Z jedną rzeczą powiedział Tomek się nie zgadzał trochę, dlatego że Tomek powiedział, że nie stoją za tym duzi gracze, to są jakieś małe firmy.

Trochę taka, trochę nie.

No bo jednak mimo wszystko za tym OpenAI to stoi w grze, że Microsoft wszystko jest zrobione na Azure.

Dlatego powiedziałem, że są wspierani przez te firmy.

Nie jest to po prostu wyfinansowanie, jest to po prostu jakiś tam brand, mały zespół, mała firma, która została wykupiona oczywiście gdzieś tam na pewnym etapie.

Tak działają też duże firmy.

Więc tak naprawdę ciężko znaleźć taką firmę, która robi tutaj dobrą robotę, jeżeli chodzi o ten taki nowoczesny AI, ale która nie jest już mocno związana z którymś, przynajmniej jednym z tych hyperscalerów.

Tak jest moja obserwacja.

Może tutaj znajdziecie jakiś taki kontrprzypadki.

Druga rzecz, którą powiedział Wojtek jest ciekawa i ja bym może trochę bardziej zgeneralizował też, bo mamy ten GPT-3.5 i w oparciu o GPT-3.5 jest już znacznie więcej komercyjnych rozwiązań niż tylko i wyłącznie czad GPT.

Ja widziałem wczoraj jakąś listę, było dosłownie tego chyba już z 10 takich już monetyzowanych.

Natomiast ta rewolucja przyspiesza.

A ten GPT-4 będzie, on już, ten zakres dat, na który on był spodziewany, bo była jego premiera, to jest od grudnia, czyli już teraz, do bodajże lutego.

Czy to już za chwileczkę będziemy mieli styczność z nim.

Pytanie, czy tam rzeczywiście będzie już taka rewolucja jakościowa.

Może o tej rewolucji jakościowej też sobie za chwileczkę powiemy, czy co na nas takie wielkie wrażenie zrobiło.

Natomiast ja myślę, że fajne będzie w ogóle też podzielenie się trochę naszymi wrażeniami odnośnie rzeczywiście z tego, czego korzystamy na co dzień.

No bo efekt wow na przykład w przypadku czad GPT jest super fajny.

Tylko teraz pytanie, no on jest jeszcze nie monetyzowany jako sam czad GPT, poza Microsoftem.

Pytanie, czy ktoś z was już korzysta rzeczywiście z tego na co dzień i zmieniło to jego sposób pracy, bo to jest tak naprawdę bardzo interesujące.

Ja korzystam na co dzień z rzeczy, ale właśnie w innych domenach, czyli nie przygotowanie.

Znaczy w przygotowaniu korzystam z copilota, tak?

Jak ktoś pisze i tak dalej, no to mam copilota.

Ja właśnie nawet sprawdziłem tak swoją drogą sobie tam, ja generalnie kilka lat temu już w zasadzie napisałem, że tutaj wiesz, jestem panem sobą, nie?

Ale generalnie w okolicy dwa tysiące dwudziestym pierwszym napisałem taki kawałek newslettera, gdzie puściłem hasło pod tytułem AI Assisted Tools, nie?

No bo ja widzę największe użycie tego właśnie w tym, że to jest ja coś robię i to mnie wspiera, nie?

Więc ja na co dzień korzystam, nawet nasze nasz branding na CDO Morning Coffee na podcaście jest wygenerowany po prostu z dali, tak?

Czyli jak potrzebuję szybkiego, szybkiej inspiracji do zrobienia czegoś, no to generalnie generuję to czy w dali, czy w stable i potem daję komuś do przerobienia po prostu, tak?

Dużo używam też takich rzeczy dookoła tekstów, czy idei, nie?

Czyli tutaj chat GPT na przykład mocno pomaga w wygenerowaniu jakiegoś pierwszego draftu i takie rzeczy.

I tutaj jest też trochę to, co bo nie wiem, czy tam może wszyscy kojarzą, Microsoft w którymś momencie, a ja pracuję mocno w Microsoft, nie?

Jednak kupił prawa do użycia, tak?

GPT i tego jest bardzo dużo rozproszonego po prostu po narzędziach Microsoftu, nie?

Więc jak ja pracuję w tym ekosystemie, no to wiesz, całe podpowiadanie tekstu, autogenerowanie PowerPointów upraszczając, przekładanie rzeczy, schedulowanie rzeczy, ustawianie mi jakiś tam reguł na mailach i tak dalej, i tak dalej, nie?

Więc to jest wynik wszystkiego tego, nie?

Więc ja używam, ale nie w tych domenach, też przy okazji podcastów na przykład i tego typu rzeczy to używam na przykład dużo jakichś transkryptów, edycji w oparciu o to i tak dalej.

Ja się przyznam, że używam zaskakująco mało, może dlatego, że jestem control freakiem po prostu, ale ja na przykład znacznie lepiej, tak żeby trochę porównać, no bo nie miałem dostępu do tego wewnętrznego kodu Whisperera, a więc mogłem zobaczyć jak to działa już wcześniej.

Natomiast znacznie lepiej niż takie alternatory kodu, korzystam i się z narzędzi typu tab9, które uczą się mojego stylu, rozumieją w jaki sposób ja na przykład konstruję kod, jak ja nazywam zmienne, rozumieją te konwencje i nawet dzięki temu więcej procesów hula na mojej lokalnej stacji i tam niestety ta inferencja dzieje się też lokalnie, ale dzięki temu ja faktycznie mam takiego badiego cyfrowego, który faktycznie trochę czyta w moich myślach, ale konkretnie w moich myślach, nie podpowiada mi genetycznych rozwiązań, tylko podpowiada to, co jest właściwe konkretnie dla mnie i to mi się fantastycznie sprawdza.

Natomiast co do wielu takich rozwiązań tych AI-owych, jestem wręcz nastawiony negatywnie, przede wszystkim do tych rozwiązań jest już coraz więcej czy to pluginów, czy to aplikacji, które wspierają budowę bazy wiedzy.

Tam pojawi się MMMI, Notion AI i tak dalej.

Jestem do tego nastawiony bardzo negatywnie, bo niestety mam wrażenie, że zaczynamy cedować, my cedujemy na to, że cedujemy swoją kreatywność, a tak naprawdę cedujemy sprytne wiązanie informacji, które z kreatywnością niekoniecznie ma co kogoś wspólnego.

I to jest znowu niebezpieczne, bo nawet pewnego rodzaju mentalne mięśnie trzeba ćwiczyć, po prostu ciągle je, ciągle je używając.

I jeżeli coraz więcej tej kontroli będziemy oddawać, przestaniemy to ćwiczyć, to myślę, że to będzie z dużą, z dużym uszczerbkiem dla ogólnie naszych sił sprawczych.

Że tak powiem.

Proszę Sebastiana, jeszcze przejdziemy za chwilę do wyrażenia krytyki, natomiast ja bym chętnie zadał pytanie do wszystkich, cześć wszystkim, jeszcze do wszystkich, którzy dołączyli, więc widzę, że sporo osób właśnie dołączyło się w tej części dyskusji, słuchajcie, więc tutaj mogę podpowiedzieć, że zrobiliśmy taki wstęp mniej więcej, jaka jest historia.

I otwarte pytanie, właśnie kto z was używa jakich narzędzi, które wiecie, że mogą być wspierane sztuczną inteligencją lub są wspierane sztuczną inteligencją, więc zapraszamy serdecznie.

Bardzo chcemy poznać wasze wrażenia, bo tą dyskusję chcemy poprowadzić też w kierunku właśnie wrażeń z tego, gdzie te narzędzia według nas są, gdzie będą i jak zmieni, gdzie jest też nasza krytyka tych narzędzi i gdzie widzimy ich ograniczenia, jak zmieni się nasz zawód w przyszłości ze względu na te narzędzia, więc bardzo chętnie was zapraszamy, żebyście się dołączyli do tej dyskusji i szczególnie będzie pewnie dla was interesująca druga część, natomiast chętnie zbieramy wrażenia, jeżeli chodzi wasze z korzystania z tych narzędzi.

W międzyczasie ja mogę jeszcze dodać też, ja mogę powiedzieć tak, faktycznie to było dla mnie od razu bardzo interesujące, zestaw tych narzędzi, więc jak tylko mogłem się zapisałem właśnie na Copilot'a, to udało mi się dosyć szybko uzyskać to zaproszenie, więc mogłem z niego korzystać chyba z tego, co pamiętam jesienią w tamtym roku, czy jakoś, no nieważne.

W każdym razie moje pierwsze wrażenie było dosyć ciekawe, też z tego powodu, że Copilot po pierwsze, to co na mnie zrobiło wrażenie, faktycznie dosyć nieźle porusza się w różnych językach, więc potrafi podpowiadać w kilku językach to co ja mam wrażenie Sebastian, bo ty powiedziałeś, że masz faktycznie takiego per-programming body i to jest w ogóle bardzo ciekawe, bo to jest taki, linia reklamy dla wielu z tych produktów, więc to jest też, za chwilę chętnie się odniosę do tego, co powiedziałeś i co to znaczy jak będziemy krytykować prawdopodobnie te rozwiązania, ten per-programming body i gdzie tutaj są ograniczenia.

Natomiast ja mogę powiedzieć, że faktycznie jeżeli chodzi o ten AI Assisted, to te narzędzia bardzo mocno i ciekawie działają, już teraz, pomimo tego, że to są słuchajcie, pierwsze wersje, bądźmy szczerzy, tych narzędzi i dla mnie Copilot oznacza bardzo mocne przyspieszenie.

Jedną rzecz ciekawą zauważyłem, nie wiem czy próbowaliście włączać i wyłączać je w pozwolenie, żeby analizował wasz kod i wysyłał do serwerów.

Co Pajlota, ale zauważyłem, że on potrafi się uczyć w ramach większego projektu, potrafi rozpoznawać wzorce, jakiś sposób podejścia do programowania w tym danym projekcie i podpowiadać zgodnie z nim.

Innymi słowy, jeżeli mam coś takiego, takiego POC, które rzeźby sobie szybciutko, a na przykład już bardziej dopracowany kod, faktycznie Copilot będzie potrafił działać już troszeczkę różnych w różnych wersjach powiedzmy jakościowych, więc to jest moje wrażenie.

Pytanie do wszystkich, słuchajcie, zapraszamy do dołączenia do nas i podzielania się wrażliwymi.

Zanim zrobi się kolejka, to ja wskoczę jeszcze chwilę, bo Sebastian dotknął jednej rzeczy, może to być przeskakując nawet do przodu, bo ja widzę główną główną rzecz w tym właśnie to, że to jest asystent, nie coś, co zastępuje, nie?

I według mnie, akurat moje opinianie i to, co ja obserwuję z ciekawością, to jest właśnie to, bo patrzcie jak to działa, to są modele, które wymagają dużych zasobów, żeby je wytrenować, zbudować i tak dalej, ale potem stosunkowo niedużych zasobów, żeby działać.

I według mnie najszybsza droga rozwoju, która się pojawi, to jest dokładnie to, że te modele będą schodziły bliżej nas, bo w tej chwili mamy Copilot, który działa na serwerach, jest gdzieś usuwany, a one będą schodzić bliżej nas, tak jak w stable diffusion zeszło, że możesz go odpalić i będą się nas uczyły, nie?

I wtedy będzie dopiero duże wykorzystanie tego, no bo w tej chwili faktycznie, czy czy kod, czy teksty, które ja nawet miałem rozmowę, teraz w momencie jeżdżę na nartach z jedną kolegą, no bo to, co generują te modele jest, krótko mówiąc, okrągłe, nie?

Czyli jest trochę, jak jest okrągłe, to jest trochę nijakie też, nie?

I potem można je poznać.

Ale też potrafią wygenerować, jeżeli powiesz zrób coś w danym stylu tej osoby, jeżeli mają dane, nie?

I to, co się odpaliło w międzyczasie, to się odpaliło też to, że odpaliły się instancje, one są głównie w tej chwili tam jakieś zabawki typu profile picture i tak dalej, ale to, co one robią, to one bardzo szybko budują model wytrenowany pod ciebie, tak?

Czy jakby jako branż.

Więc to, co Sebastian powiedział, to według mnie to będzie najszybsza gałąź rozwoju tego, komercyjna, czyli wypuszczanie narzędzi, które będą korzystały z tych modeli, do tego, żeby dostarczać taki personal experience, nie?

Czyli uczę się na twoim kodzie, na tym, jak piszesz i robię to tak, jak ty.

Tak, żeby tutaj dodać troszeczkę kontekstu do tego, co powiedziałeś, to dodam, że estymuje się, że Microsoft wsparł Open AI już około miliardem dolarów, więc zarówno kodeks, jak i Chart GPT, natomiast koszt dzienny utrzymania Chart GPT na produkcji i obsłużenia tego ruchu, który ma, jest estymowany na ten moment na około 100 tysięcy dolarów dziennie, czyli to jest 3 miliony dolarów miesięcznie, więc oczywiście można to podzielić, ile to oznacza dla użytkownika, mniej więcej w tym momencie estymowane jest, że jest milion użytkowników Chart GPT na świecie, więc te koszty oczywiście będą coraz mniejsze, natomiast jak widzicie, ten miliard włożony w tą firmę pokazuje, że stworzenie tych modeli jest faktycznie drogie, to nie jest tania zabawa.

Ja bym tylko jeszcze taką jedną uwagę, bo my cały czas jesteśmy skoncentrowani na programowaniu, ale pamiętajcie, że generalnie Generative AI będzie wykorzystany najprawdopodobniej na znacznie większą skalę przy takiej, użyję nieładnego amerykańskiego słowa, dysrupcji bardzo wielu innych industries, które czasami być może zostają przez to zupełnie zaorane, no to jest to, co się tam zaczęło dziać już x lat temu, jeszcze nie przez szczesną inteligencję, kiedy boty zaczęły wypierać na przykład linię supportów, bo okazało się, że można stosując sobie parę zwykłych białkowych ludzi, że tak powiem, zastąpić tutaj botem i w jakiejś tam ilości przypadków to działa, więc tu wydaje mi się, że to będzie bardzo ciekawe, dlatego że przynajmniej jak dla mnie, kiedy ja zobaczyłem ten czat GPT po raz pierwszy, to rzeczywiście to był pierwszy taki moment, kiedy miałem takie wrażenie obcowania z czymś, co jest bardziej ludzkie niż inne rzeczy, co do których ja jestem przyzwyczajony.

Bo to, że mam dokładnego searcha w różnych aplikacjach i że coś potrafię przyindeksować gigantyczne bazy wiedzy i odpowiedzieć mi na jakieś moje pytanie w oparciu o istniejące już dane, to jestem tego przyzwyczajony, to każdy z nas jest tego przyzwyczajony, ale właśnie to, że mogę zapytać o jakąś bardzo szczegółową informację i jeszcze poprosić, żeby została mi przekazana stylem Donalda Trumpa albo w postaci wierszowanej używając tam heksametra, czy jak to się tam nazywa z antycznej Grecji, to to było dla mnie bardzo nowe, bo to dawało taką uderzę, ta druga strona, ten mechanizm, no to może nawet nie, że ktoś to myśli, ale że kreuje, że jest w stanie w inteligentny sposób wyłączyć różne aspekty tego contentu czy tej odpowiedzi, którą mnie udziela.

I to rzeczywiście otwiera pewną klapkę w głowie, bo tych, jak sobie zastanowimy się nad tym trochę, to tych różnych gałęzi tam gospodarki, industries, które w ten sposób można wysadzić, zastępując człowieka maszyną, jest naprawdę bardzo dużo.

W ogóle sama rewolucja dla edukacji, czyli przyszłe pokolenia wobec tego, jak należy edukować, żeby były konkurencyjne i zgodne z trendem tego typu rozwiązań, to też jest taka ciekawa rozkmina, o której ostatnio miałem okazję trochę czytać.

Także wydaje mi się, że ok, jeżeli chodzi o programowanie, to na pewno też będzie pewnego rodzaju rewolucja i zgadzam się zupełnie z Tomkiem, że ta rewolucja to raczej będzie chyba jednak dostarczenie narzędzi, a nie zastąpienie ogólnie programistom, natomiast inne branże mogą mieć znacznie większy problem.

Wiesz co, mój pierwszy publiczny komentarz pod tym, jak wyszedł przysad GPT, to byłbym w tej chwili firmy dostarczającą QA-Boty i takie rzeczy, to bym bardzo szybko szukał nowego modelu biznesowego.

No bo jednak jest duże firmy, które się oparły o QA-Bots, jakieś tak zwane jaj i tak dalej.

I ich biznes model po prostu zaczął znikać w momencie, kiedy przysad GPT wyszedł na zewnątrz.

Tych dysrupcji takich, jeżeli chodzi o tego typu pracę, to będzie bardzo dużo, bo wiesz, bardzo dużo na przykład rzeczy, które są marketingiem, marketingowe i tak dalej, one już są generowane w ten sposób.

Co więcej, już masz na LinkedIn i Twitterze krążące linki, jak przygotować w ogóle super ekstra content, używając czat GPT.

Co więcej, widziałem już nawet filmik, gdzie osoba prezentowała jak zautomatyzować najbardziej czytelne artykuły w szerokim swoim networku, podpiąć to wszystko pod Zapiera i generować artykuły swoje, które będą odpowiadały na i wygrzały dyskusję.

Więc jak widzicie, młodzież w Polsce niemocno się zmienia.

Już są całe konta, które wygenerowane, znaczy nie generowane, ale są ludzie, którzy podpięli po prostu czat GPT pod odpowiadanie pod swoimi postami, nie?

Czyli zamiast po prostu obsługiwać swój content, to robią to automatycznie.

Zresztą akurat w tej chwili dosłownie na dniach było, bo McDonald's, czyli sieć restauracji odpaliła pierwszy kompletnie zautomatyzowany post, czyli pierwszą restaurację, gdzie już w ogóle nie ma człowieka oprócz maintenance.

To też jest częściowo możliwe dzięki temu, bo interakcja i też to, co Sebastian powiedział, teraz tak, żeby nie było złudzeń, tam nie ma inteligencji dalej, ale interakcja, jaką masz z tym interfejsem, z tym algorytmem jest taka, że daje ci złudę tego, że jest tam ciąg, że jest tam ktoś, kto odpowiada i tak dalej.

To oczywiście bardzo szybko może pójść sideways, ludzie to pokazali, że to się da.

Tam jest jeszcze kilka takich zagrożeń, ale to może...

O, nasze ciekawych projektów wypuszonych w ostatnich tygodniach jest też z Google, z tych spółek google'owskich, to mogło umknąć wielu osobom, to to przećmiło, wszystko przećmił teraz czat GPT.

Wyszedł robot, który używa właśnie tego typu sieci do interakcji ze światem.

Innymi słowy, on potrafi interpretować zdarzenia wokół siebie i potrafi wchodzić w interakcję z otoczeniem, oczywiście wliczając ludzi, dużo lepiej i to jest faktycznie już oparte na sztucznej inteligencji, także jego reakcje i interakcje i to jest pierwszy taki faktycznie styk świata fizycznego absolutnie i właśnie tego typu modeli, więc to jest taka ciekawostka.

Ja, żeby tutaj zrobić klamrę, bo tak oczywiście możemy opowiadać dosyć długo na ten temat, żeby zrobić klamrę do tej części, chcę zwrócić Wam uwagę na jedną rzecz.

Wielu z nas, żeby przejść dalej, wielu z nas twierdzi, że mamy bezpieczny zawód i że programiści jest to jeden z najlepszych zawodów.

Jak pamiętacie, niesamowita liczba bootcampów wybuchła przez ostatnie 3-4 lata zachęcając absolutnie wszystkich, żeby się uczyli programowania.

Równolegle to, co się działo, jak pamiętacie, rozpocząłem, skąd to się wszystko wzięło, to talent gapów właśnie, czyli różnicy pomiędzy ilością osób, które faktycznie są w stanie zapewnić pewne rodzaje umiejętności, a rynkiem, który tych umiejętności potrzebuje.

I zwróćcie uwagę, jak to wszystko się rozpędziło. 2018, pierwsze, pierwsze takie najprostsze modele, o których świat zaczął słyszeć. 2019, 2020, powolutku, co rok wypuszczał się jakiś tam model, o którym słyszeliśmy.

W przeciągu ostatniego roku, ja bym powiedział, że mamy do czynienia z ekspotencjonalnym rozwojem tej technologii.

Jeżeli to przyłożycie, za rok o tej porze będziemy mieli całkiem inną dyskusję.

I będzie, kto wie, z jakim modelem będziemy mieli wtedy do czynienia.

Natomiast tutaj chciałbym powolutku przechodzić, też zwrócić Waszą uwagę, zanim przejdziemy do przyszłości naszego zawodu, co to oznacza i dla innych zawodów również, chcę zwrócić Waszą uwagę, słuchajcie, zobaczcie, jak to przyspieszyło.

Ilość inwestycji w tego typu rozwiązania niesamowicie przyspieszyła.

Też właśnie to, na co, Sebastian, zwróciłeś uwagę, część z tych rozwiązań jest open source'owa, czyli stable diffusion.

Ludzie dostali do rąk w ogóle wiedzę, jak budować tego typu rozwiązania i założę się, że teraz jest dziesiątki zespołów naukowców, dziesiątki zespołów małych firm, zajawionych ludzi, którzy myślą, okej, co zrobić z tego typu umiejętnościami, co zrobić z tego typu wiedzą.

Ale to wiesz, bo to...

To generalnie tak wygląda, że taka demokratyzacja AI to już trwa od jakiegoś czasu i to już wszyscy chyba na obecną chwilę, ci najwięksi prowadzerzy cloudowi ogólnie dają coś takiego jak AI as a service, gdzie ty możesz sobie te modele budować, tworzyć, oni ci podstawiają dedykowaną infrastrukturę, która jest zoptymalizowana dokładnie pod tym kątem i to jakby, to rzeczywiście nie jest nic nowego, wydaje się, że to jest efekt skali, że doszliśmy do takiego momentu, kiedy już potrafimy zbudować tak duże modele, że rzeczywiście są przekroczone pewne granice jakościowe czy mentalne.

Ja tak powiedziałem, żeby trochę domykać klamrę o to, co mówiliśmy, ja tylko rzuciłbym dwie rzeczy tak na przemyślenie, bo to, że nie wiem, marketingowcy ucierpią, bo to będzie generowane automatycznie, to trochę mi ich nie żal, ale pomyślcie o takich zawodach, jak ogólnie szeroko rozmajona artysta.

Może nie być potrzebny.

Prawnicy.

Też bym się zastanawiał, czy tak naprawdę będą potrzebne.

Właśnie, wiesz co, ja tu się nie zgodzę.

Z prawnikami to jest tak, że i trochę do tego, co Wojtek powiedział, i to możemy w zasadzie też przechodzić w stronę jakby pogdybania albo dyskusji.

Zapraszam do skrytykowania właśnie tych rozwiązań.

Gdzie one mają ręczenia?

Bo to jest tak, że w przypadku zarówno prawników, jak i deweloperów to usuwa dużą część tak zwanej niepotrzebnej roboty tak naprawdę.

Powtarzalnej wyszukiwania i tak dalej.

Bo wiesz, jeżeli jesteś prawnikiem, to duża część, przy takich kontraktach i tak dalej, też wynika z przeszukiwania case'ów, stworzenia tekstu, który coś tam robi i tak dalej.

I to jest to o asystę.

Teraz, jeżeli mówimy o takich ludziach jak artyści, to to jest mój model dziś, który ja sobie dookoła tego zbudowałem myślenia o tym, że tak w masówce, bo na przykład jedna z rzeczy, o której już się publicznie mówi, że to jest ta węża gamingowa, która nie tyle, że zostanie zastąpiona czy coś, tylko koszt wytworzenia gry spadnie dramatycznie.

Ze względu na możliwość generowania obrazów i tak dalej w jakiś tam sposób.

Więc generalnie koszt stworzenia popularnych grafik, czy w ogóle, wiesz, elementów wizualnych, muzyki i tak dalej, po prostu spadnie do zera.

Takiego literalnie.

Jeżeli tak, to pójdziesz w tę stronę i każdy będzie mógł generować jakiś obrazek i tak dalej.

To de facto, jeżeli mówimy o artystach, to według mnie w cenę pójdzie to, co stworzył człowiek.

Czyli jeżeli ktoś będzie tworzył coś i będzie umiał to robić, i będzie do tego miał brand, że jest właśnie to wytworzone przez człowieka, to to gry jednak dalej będzie w cenie.

Może po prostu, wiesz, będzie trudniej będzie tym, którzy w tej chwili wystawiali na Fevera, wiesz, zrobić logo w pięć minut.

Wiesz co, ale to jest trochę taka, trochę nie, bo pomyśl na przykład o muzykach, że jest 5% geniuszy, takich, którzy rzeczywiście potrafią wygenerować coś niesamowitego, natomiast na te 5%, w pewnym sensie pracuje też 95% całej reszty, kto chce aspirować do tych geniuszy, w pewnym sensie się uczy, być może nie są jeszcze aż tak utalentowani.

I właśnie te 95% zostanie disrupted.

I teraz pytanie, czy to nie oznacza, że te 5%, tych prawdziwych geniuszy, którzy rzeczywiście byliby w stanie stworzyć coś lepszego niż ten generatywy AI jest tanie, czy oni w ogóle będą mieli szans się przebić gdzieś, nie mając rynku?

Tak, bo nie będzie rynku, nagle rynek się skończy.

To jest to zagrożenie pod tytułem sto kwoto znikną, a gdzieś trzeba zacząć, jakaś tam możliwość sprzedaży swojego prostych nawet kreacji, zniknienie, ale bardziej, wiesz, no to jest taki, tak jak ja nawet użyłem tego, żeby wygenerować nasze wizualizacje, nie, robię sobie pomysł, a potem biorę i mówię do człowieka popraw mi to w taki sposób, nie, oczywiście będzie tego coraz mniej, więc tak, na tym poziomie to się skończę z tobą, że jest to taki tak, że...

Ale...

Nawet geniusze artystyczni oni też przez większość czasu to grali do kotleta, nie, żeby w końcu mieć szansę gdzieś tam z tym naszym geniuszem gdzieś tam się przebić.

Myślę, że to będzie duży dramat, w ogóle, ale tych zawodów jest znacznie więcej, nie wiem, dziennikarzy, po co komu dziennikarze, jeżeli mamy tego typu czat GPT's i tak dalej, że sami jesteśmy w tym naszym wewnętrznym gronie, omawiali niezły skandal, który był jakiś czas temu, kiedy ktoś tam się dopatrzył, że jakaś część książek chyba na Amazonie była generowana automatycznie i to rzeczywiście taka treść, ta treść była pewnie bzdurna, to chyba nasz rodzimy Michał Zalewski ilkampów o tym pisze.

Tak, Michał Zalewski ilkampów.

Dokładnie.

Więc no myślę, że ta różnica będzie dramatyczna, ale słuchajcie, bo właśnie tak Wojtek powiedział, może przejdźmy do tych zagrożeń, bo to jest chyba też ciekawe, co z tym nie gra, co jest problemem.

I ograniczeń.

I ograniczeń może też przy okazji, tak.

Dokładnie.

Jakie widzicie ograniczenia?

Tomek, bo wiem, że w naszych przygotowaniach ty bardzo dużo tutaj też zauważyłeś słusznych rzeczy.

Znaczy to jest i zagrożenie i ograniczenie, bo ja opowiem case, który ostatnio potem trochę jest, jakie case widzieliśmy.

Ja widziałem też fantastyczne case'y użycia chat GPT i tak dalej i na przykład na bardzo takie fantastyczne case'y pt. odblokowujące ludzi, nie, czyli ktoś nie umie pisać z dysleptykiem w ogóle, nie umie się komunikować z ludźmi i to załatwia za niego komunikację, nie.

Ale z drugiej strony jedna jedna z pań, doktor, tam, którą śledzę gdzieś, postanowiła wygenerować z chat GPT informacje na temat badań naukowych, nie, i zaczęła zadawać po prostu pytania o badania ze swojej dziedziny, które nie istnieją, nie.

No i chat GPT wygenerował zarówno wyniki tych badań, jak i cytaty z prac naukowych, jak i wygenerował kto je zrobił i wygenerował bio tych ludzi, nie.

Czyli generalnie powstały odpowiedzi w stylu, okej, to taki jest wynik pracy na taki temat, napisał ją ten, ten i ten, było to cytowane w Nature, tutaj jest cytat, tutaj jest tytuł artykułu, numer pracy i tak dalej, nie.

Wszystko to był bullshit, to nie istniało, nie.

I teraz ona była w stanie to zweryfikować, bo to była jej, to była jej domena, więc bo ona wiedziała, że tego nie istnieje, ci ludzie nie istnieją i tak dalej i pokazała to.

Więc to jest zarówno ograniczenie tego, bo to jest jednak nadal, tam nie ma inteligencji, nie.

A zagrożenie z tego wynikające jest takie, że jeżeli właśnie ktoś pisze kod i nie rozumie tego kodu dalej i jest w stanie ukryć to, bo pracuje na takim poziomie, że jest w stanie generować ten kod przez narzędzia, no to będzie generował kod, który jest głupi, nie.

Jeżeli ktoś pisze teksty o gazety, w szczególności dostanie zadanie napisania tekstu na temat, nie wiem, cen ogórków na giełdzie w Tokio w funkcji ilości lotów samolotami i handrailców, nie, to go wygeneruje i uzasadni go naukowo, nie.

Więc największe zagrożenie dla mnie jest takie, i to jest trochę co Sebastian powiedział, że wcześniej przy okazji zbierania wiedzy przy pomocy tych narzędzi, nie, że jeżeli odpuścimy krytyczne myślenie na tym, to no to po prostu pójdzie sideways strasznie, nie, no bo będziemy czytać rzeczy wytworzone przez algorytmy, które nie miały pojęcia, które zweryfikował człowiek, który nie miał pojęcia o tym.

Tak, ja tutaj jeszcze raz podkreślam, słuchajcie, zapraszamy do dyskusji, bo to jest chyba jeden z najważniejszych, najważniejszych części.

Spróbujemy powróżyć z fusów też.

Jakie ja widzę ograniczenia?

Przede wszystkim, słuchajcie, jest jeden wielki problem do rozwiązania, mianowicie, jak wiecie, sztuczna inteligencja, jeżeli chodzi o generowanie treści, jest świetna w generowaniu treści, które już wcześniej widziała albo w oparciu o treści, które już wcześniej widziała.

To dotyczy również kodu.

Ciekawy problem będzie, co jeżeli wypuszczamy nową wersję oprogramowania, biblioteki, język programowania, jak szybko te modely będą się uczyły.

To jest mniejszy, oczywiście to nie jest jakiś ogromnie trudny problem do rozwiązania, natomiast jest to, słuchajcie, bardzo, bardzo ciekawe.

Druga rzecz, którą ja widzę, te modele jednak zamykają nas, o tych wszystkich modelach, które opowiadaliście, zamykają nas w pewnej bańce.

Nam się wydaje, że to jest bańka kreatywna, poruszamy się wokół rzeczy, które są dla nas nowe, natomiast one jednak są oparte o coś, co my chcemy zobaczyć, przeczytać, napisać, jeżeli chodzi o oprogramowanie.

Więc to jest bardzo ciekawy problem.

Natomiast to są ograniczenia, które osobiście widzę.

Więc Sebastian, czy ty byś chciał dodać coś, jeżeli chodzi o ograniczenia samych tych rozwiązań teraz?

Ja mam trzy rzeczy, z czego dwie powiązane.

Pierwsza rzecz to jest to, co powiedział Tomek i to trzeba trochę podkreślić, to jest ten problem, który się nazywa halucynacjami, czyli właśnie, że tego typu rozwiązania jak chat GPT są w stanie twierdzić coś z pełnym przekonaniem mimo tego, że to jest jakiś tam falsyfizm, a są w stanie to po prostu wygenerować.

I wydaje mi się, że to jest problem gdzieś tam na jakimś etapie pewnie rozwiązywalny w dużej mierze, natomiast na chwilę obecną ciężko jest tym rozwiązaniem zaufać.

To jest taki pierwszy problem.

Drugi problem, który widzę, to jest problem związany z tym, że ktoś już bardzo fajnie napisał w jakiejś książce odnośnie wyszukiwarek.

Wyszukiwarki stały się bramą do internetu i niektórym ludziom, uwaga, może to zabrzmi śmiesznie, trudno, zastąpiły Boga.

Dlaczego?

Bo ludzie w tym momencie nie potrzebują starszych osób, bardziej doświadczonych.

Już zginął taki model w ogóle mędrca, człowieka, który przeżył więcej w życiu, po to, co jest, oni są nam niepotrzebni.

Wystarczy zapytać się Google'a.

Kiedyś nasze babcie, moja mama jeszcze na przykład, miała gdzieś zeszyt z jakimiś przepisami kulinarnymi, które spisywała od swojej mamy i od jej mamy i tak dalej.

To była pewnego rodzaju wiedza, która była bardzo cenna.

Dzisiaj czy jest coś takiego potrzebne?

Widzimy pewnego rodzaju kryzys, jeżeli chodzi właśnie o te relacje między młodszymi a starszymi pokoleniami.

Internet i ogólnie wyszukiwarki trochę się do tego przyczyniły i teraz wydaje mi się, że kiedy mamy jeszcze bardziej human-like interfejs w postaci takiego chat GPT, który jest w stanie w tak błyskotliwy sposób odpowiedzieć na wiele różnych rzeczy, to znowu będzie to oznaczało pewnego rodzaju kryzys, powiedziałbym, socjologiczny, społeczny.

To jest bardzo ciekawe, zwłaszcza, jeszcze tu zrobię taką małą dygresję, że ludzie, kiedy zobaczą, jak to fantastycznie działa, pierwszy, drugi raz, trzeci, zobaczą świetne odpowiedzi, zaczną wierzyć.

Zaczną krytycznie.

Ale właśnie, będą do tego podchodzić bezkrytyczne, a pamiętajmy, ktoś za tym stoi, jakaś korporacja.

I teraz może być serwowany nam przekaz, pamiętajcie, zwycięzcy piszą historię.

Może być serwowany nam przekaz, który tą historię przepisuje.

Nie chciałbym tu wchodzić w kwestie polityczne, ale jak wiemy, strona polityczna globalnie jest teraz mocno spolaryzowana.

I są pewnego rodzaju, nazwiemy to, nie wiem, frakcje, grupy, które wręcz historię przepisują.

I czują, że się, pewnego rodzaju misje do tego.

A czują, że robią to w szczytnym celu.

I teraz, kto nam zagwarantuje, jakim modelem, w którym kierunku zbiasowanym został nakarmiony dany mechanizm.

Więc w związku z tym tak naprawdę mamy teraz idealne kolejne narzędzie do tego, żeby zawładnąć myślami ludzi.

I poglądami ludzi, ukształtować światopogląd kolejnych pokoleń.

Może się okaże, że w ciągu jednego pokolenia, a może nawet krócej, przepiszemy historię świata.

To jest dla mnie kolejne ryzyko.

Jeszcze jedno ryzyko, żeby też się nie do domu nie rozgadać.

Mówiliśmy trochę, że nawet mówiłem o ryzyku dla takich branż, jak branża artystyczna.

Każdy sobie przemyśli, czy według niego to jest ryzyko, czy nie.

Ale załóżmy, że jest to ryzyko trochę mniejsze niż myślałem.

I że ci artyści ciągle będą walczyć, będą się starali wyróżnić.

Ale pamiętajcie, te modele też są gdzieś trenowane w oparciu właśnie o pracę tych artystów.

I to jest taki shady area, jeżeli chodzi o prawa, po prostu copyright.

Nawet w tym momencie jest dosyć ciężko dojść na podstawie czego zostało to faktycznie wytrenowane.

I ciężko jest dochodzić do swoich praw, no bo już nie mamy tego typowego plagiatu, że to zostało skopiowane literalnie.

Teraz już mamy skomplikowany model deep learningowy, gdzieś tam jeszcze oparty o jakiś reinforced learning.

I tak naprawdę tym artystom będzie coraz ciężej udowodnić, że na przykład coś z tego tu im się należy.

Więc może się też okazać, że to będzie w ogóle totalnie nieopłacalne, bo ty coś tworzysz, a w oparciu o to będą stworzone tylko i wyłącznie lepsze modele AI-owe.

Więc jak dla mnie to też będzie taki dodatkowy efekt flywheel, który jednocześnie będzie dusił pewnego rodzaju branżę.

Że jednak ta praca manualna, praca indywidualna to na tylko będzie ulepszać modele przede wszystkim.

Także z takich grubszych ryzyk to ja powiedziałbym, że tak je widzę.

Ja wrzucę jeszcze jedno, trochę nawiązując do tego co mówisz i ono jest bardzo grube, bo to co powiedziałaś to...

Ja mam takie pytanie, które jest out of my depth.

Jeżeli ktoś jest w stanie powiedzieć to ten, czyli w którym momencie ilość kontentu, który będzie w internecie wygenerowany przez AI spowoduje, że te algorytmy będą działały na swoim własnym kontencie i zacznie się regression to the mean.

Nie wiem.

To jest takie pytanie, które mam w głowie.

Ale dlaczego...

Matrix breakdown?

Tak.

Dlaczego ono jest ważne?

I teraz ja mam taki spój mały, prywatny model pod tytułem ja czytam bardzo dużo książek science fiction i bardzo je lubię.

I tam jest...

Potem się okazuje, że dużo jakichś takich pytań, które były zadane w tych książkach w różny sposób, to one się pojawiają.

I jedna z takich książek, którą jakiś czas temu pisałem, poruszała temat filtrowania treści i to jest powiązane z AI w taki sposób, że...

I to się wiąże do...

Idzie do problemu socjalno-finansowego krótko mówiąc, czyli jeżeli Cię będzie stać, będziesz mógł sobie kupić, wytrenować prywatny model, który będzie bardzo dobrze filtrował treści generowane w sposób automatyczny.

To jest to, co Sebastian powiedział.

Czyli ludzie, którzy będą bardziej zamożni, będą w stanie inwestować albo mieć, co ważniejsze, ludzi, którzy będą filtrować im treści.

Ludzie, których nie będzie na to stać, nie będą wiedzieli, że są karmieni treściami wygenerowanymi, treśćmi wygenerowanymi przez algorytmy.

Co w długim okresie czasu de facto może spowodować, że pogłębi nam się po prostu podział społeczeństwa na tych zamożnych i niezamożnych, bo to, że te modele ułatwiają jakąś pracę i tak dalej to spowoduje na przykład właśnie usunięcie jakichś rzeczy związanych z zarabianiem na stok foto, i tak dalej.

Gorsza sytuacja ten.

A z drugiej strony poprawi sytuację tych, którzy nie muszą polegać na tych modelach i mogą się tylko nimi wspierać.

I to jest jedno z takich dużych zagrożeń, które według mnie istnieje w dłuższym okresie czasu.

Guardian napisał, mam nawet tutaj cytat, tylko nie mam okular linka, mogę potem wygrzebać linka, ale dokładnie napisali o tym samym.

A to w ogóle to jest ciekawe co powiedziałaś, bo ty się podparłeś tym, że będzie można płacić na przykład za filtrowanie, czyli ci, którzy będą chcieli na to płacić, będą mieli tą informację płaczącą, filtrowaną właśnie, ale też może to dziać w drugą stronę.

Czyli może się okazać, że my się uzależnimy trochę od tych modeli, uzależnimy się od tego typu modelu wiedzy, a one będą segmentowane.

Czyli ci na przykład, których stać, żeby zapłacić trochę więcej, dostaną lepsze modele.

Albo dostaną modelek.

I to jest dramat, dlatego że my jesteśmy przyzwyczajeni do tego, że przez ostatnie lata dostęp do wiedzy był otwarty, był demokratyczny wręcz.

A teraz może okazać się, że przechodzimy dokładnie w tym drugim kierunku, w tym kierunku, który znaliśmy z przeszłości.

To był dokładnie model, który gdzieś tam, powiedzmy, Vivi, która gdzieś się tam pojawiła, by the way w książce człowieka, który wymyślił pojęcie metadat.

Nie Stevenson.

Ale...

Słuchajcie, bo tą książkę zalinkujcie.

Natomiast taka klamra i zapraszam was do podsumowania, co to oznacza dla nas, jako programistów, jako inżynierów, jako liderów.

Co ten rozwój technologii i jej przyspieszenie oznacza dla nas?

Ja mam krótki i prosty, bo tak jak mówię, ja kilka razy już w newsletterze swoim prywatnym się do tego gdzieś tam odnosiłem.

Według mnie, krótkoterminowo, nie?

To oznacza tyle, że nie należy, znaczy, nie należy przegapiać tych rzeczy.

To znaczy, nie należy, według mnie, podejść do tego, a, to tylko ciekawostka i tak dalej.

To jest narzędzie, nie?

I tego narzędzia trzeba się zacząć uczyć.

Czyli na przykład umiejętność dobrego promptowania tych narzędzi to będzie coś, co będzie naprawdę przydatne, nie?

Umiejętność rozumienia tego.

Ja zresztą słuchałem wywiadu, który jest w podcastów niedawno, z jednym z takich znanych programistów i on powiedział, że on używa tego do uczenia się, nie?

Czyli generalnie robi prompt, ten prompt mu coś pokazuje, on widzi jakiś API, którego nie znał i mówi, okej, co to jest za API?

Idzie za tym, nie?

Więc według mnie jedna rzecz to jest taka, że nie należy tego przegapić, należy się zastanowić jak to działa, zrozumieć jak to działa i zacząć tego używać, bo ta umiejętność promptowania, na przykład, to będzie po prostu kolejny język, nie?

Więc na pewno jest to to, że w najbliższym czasie prędzej czy później będziesz tego używał i prędzej czy później to się w ogóle też pojawi w wymaganiach do pracy, tak?

Z drugiej strony według mnie to pojawi się też problem taki, że... ale de facto on jest dobry, dlatego znowu wchodzimy w różnicę generated vs human, nie?

Bo zaleje nas po prostu słaba jakościowo ilość kodu i tekstów i tego typu rzeczy, nie?

I ona nas po prostu zaleje kompletnie i za jakiś czas z tego zaczną wypływać ci, którzy są w stanie jednak, na przykład, to poprawić, pisać lepiej, rozumieć i tak dalej, nie?

Czyli jednak ci humans będą tam potrzebni, nie?

Więc w tym terminie najbliższym takim, ty wiesz, typu następne dwa lata to ja bym po prostu aktywnie zaczął tego używać, żeby nawet wiedzieć co to robi i obserwował rozwój tego i patrzył jak to może mi usunąć po prostu jakieś takie hurdles typu praca, którą robię, a której nie muszę robić, nie?

Ja się spodziewam jednej rzeczy, poza tym, jak to powiedział Tomek, bo zgadzam się z tym, co powiedział, spodziewam się też tego, że rozleje się moda na rynku.

To jest moda niekoniecznie na, nie wiem, korzystanie z czat GPT, natomiast to jest moda na wzbogacanie swoich własnych narzędzi.

Czyli co?

Masz e-commerce'a, masz CRMA, masz cokolwiek, to jeżeli to jest po prostu goła funkcjonalność, czy że wchodzisz i sobie coś dodajesz do jakiegoś tam stoku i możesz, nie wiem, przesunąć, sprzedać i tak dalej, to będzie zbyt mało, bo teraz będzie oczekiwanie, że te narzędzia będą ci to podpowiadały.

Teraz będzie oczekiwanie, że one ci inteligentnie powiedzą, że słuchaj, w twojej okolicy 25% merchantów, którzy oferują podobne produkty po obniżeniu na przykład wartości produktu o 7%, to ich sprzedaż podskoczyła o tyle, a tyle procent.

Teraz będzie to oczekiwanie, że te rozwiązania będą cię prowadzić trochę za rączkę.

Będzie oczekiwanie, że jest potrzeba na to, aby z łatwością tworzyć swoje własne modele dla swoich własnych domen je używać, wplatać je w swoje produkty.

Więc wydaje mi się, że to będzie niesamowity boom, a trochę na razie mówię jak marketingowiec taki cloudowy, natomiast spodziewam się czegoś takiego, że to się bardzo rozleje po rynku na bliższych dwóch latach.

Wiesz co, to się rozleje z jednego powodu też, tak tylko wskoczę z innej perspektywy, bo na co były wydawane pieniądze w ostatnich dwóch latach?

Web3, krypto i tak dalej, nie?

Generalnie BAST się zrobił trochę, no i w tej chwili wszystkie fundusze siedzą na pieniądzach i muszą gdzieś zainwestować, no i jest od kilku miesięcy po prostu jest inwestycja na szybko, wszyscy szukają po prostu gdzie je wepchnąć w generality.ai, co spowoduje dokładnie to, co powiedziałeś, czyli następne 2-3 lata będziemy mieli po prostu wysyp startupów, spółek dookoła tego z komodotyzacją tego.

Tym bardziej, że tak jak wspomniałem, wiele z tych modeli jest open source'owych, więc nie musicie już mieć doktora tu z sieci neuronowych, żeby zrozumieć jak je zbudować.

Ja chciałem troszkę inaczej na to popatrzeć.

To ja jeszcze dodam jedną rzecz, bo to jest coś, co akurat gdzieś tam sobie wysłuchałem w jakimś Polin Podcast, nie?

Jest taki i tam była słuszna uwaga, że w najbliższych 2-3 latach, co się wydarzy, to wszyscy będą w stanie budować te modele, nie?

To jest to, co Wojtek mówiłeś.

Jest open source, ludzie zobaczą, zaczną je budować.

I z tych wszystkich ludzi wyciągną się 1-2% ludzi, którzy będą mieli unikalne dane, na których wytrenują ten model.

Czyli ktoś, kto jest domenowy i w tej domenie będzie miał dane, na których zbuduje unikalny model, który będzie komercjalizował, nie?

Ja bym chciał zwrócić uwagę na troszeczkę jeszcze inny aspekt.

On odnosi do naszego własnego zawodu.

I jak pamiętacie, my jesteśmy z takich roczników, gdzie było bardzo popularne takie powiedzenie, że nie po to studiowałem IT, żeby rozmawiać z ludźmi.

Jeżeli ktokolwiek dalej tak myśli, to jest taki wake up call.

I rozwój tych technologii to jest taki gigantyczny wake up call.

Twarde umiejętności będą coraz bardziej wspomagane, część z nich będzie zastępowana i ogromnie istotne będzie rozwijanie umiejętności miękkich w naszym zawodzie.

Umiejętności myślenia strategicznego, umiejętności planowania, umiejętności łączenia bardzo trudnych wstępnie kropek.

Te modele nie są dobre i nie będą długo jeszcze dobre w zrozumienie człowieka i przetłumaczenia wymagań biznesowych na język technologiczny i do opracowania całego rodzaju architektury.

O no codzie ja słyszę już od wielu, wielu lat nic się tak naprawdę słuchajcie w tej materii jakoś ogromnie nie zmienia.

Natomiast to, że my będziemy wspierani...

Tylko ty.

Ok, to przepraszam was.

To, że będziemy to, że będziemy wspierani powoduje, że będziemy szybsi, że będziemy dużo więcej swojej pracy automatyzować.

Natomiast słuchajcie, fakt jest taki, że te umiejętności twarde i skupianie się tylko i wyłącznie na umiejętnościach twardych odchodzi już ostatecznie, to jest jedna z ostatnich kropek.

Więc jeżeli macie osoby w zespołach, które dalej tak myślą, to jest też rola dla liderów, żeby te osoby obudzić i im powiedzieć słuchajcie, patrzcie co się dzieje.

Zobaczcie na prędkość rozwoju tych technologii.

Ja tu zamknę takim...

To są dokładnie odwrotne myśli.

Właśnie takie czy przypadkiem nie dałoby się tego użyć do tego, żeby załatać te problemy z komunikacją, z tymi skillami miękkimi.

Bo też widziałem takie zastosowanie, przynajmniej niektórych z tych...

Nie, nie, nie.

Wojtek, wytłumacz mi co ten kod robi na przykład i opisz mi co ten kod robi.

I powiem ci, że wynik był niezły, bo to było rzeczywiście nieźle ustrukturyzowane odpowiedzi.

Ale słuchajcie, jesteśmy już po 9.30, więc to jest chyba dobry moment, żeby zawijać do brzegu.

Dzięki bardzo za dzisiejszą dyskusję.

To jest nasze ostatnie spotkanie w 2022 roku.

Więc dzięki bardzo, że byliście z nami, że braliście udział w naszych programach, bo to jest już odcinek 25.

Póki co, to co?

Dla oczywiście wszystkich tych, którzy świętują, to Wesołych Świąt, Szczęśliwego Nowego Roku i co?

Słyszymy się po Nowym Roku.

Dużo spokoju, zdrowia i rodzinnych Wesołych Świąt wam życzymy.

Wzajemnie.

Ogłoszenia na tym ze spotkaniem tradycyjnie Twitter, LinkedIn, maila.

Zapraszamy.

Trzymajcie się.

No, cześć, hej.

Dziękuję za oglądanie.

Do zobaczenia.

Słuchajcie, to jest ten moment, kiedy zasubskrybujesz i gotujesz.