Jeśli jesteś ekspertem i szukasz przede wszystkim tematów technicznych – zacznij tutaj. Tworzymy to miejsce, by każdego dnia stawać się lepszymi. Zderzamy się z problemami, analizujemy, rozwiązujemy. Razem tworzymy społeczność ludzi zaangażowanych w branżę.
Big Data to młoda branża. Nie przeszkadza to jednak w fakcie, że wybija się na kluczowy czynnik rozwoju współczesnego świata. Nasze podejście do Big Data nie jest uwięzione w technikaliach. Staramy się patrzeć na branżę szerzej, dostrzegając w niej fascynującą przygodę i olbrzymią szansę na “lepsze jutro”.
Big Data nie jest sztuką, która ma być uprawiana dla siebie samej. Jeśli jesteś z biznesu i zastanawiasz się co Big Data/AI może zrobić dla Ciebie – zacznij tutaj. Bądź na bieżąco, dowiaduj się więcej, pozwól że RDF będzie Twoim partnerem w branży.
Niedawno zacząłem nową serię – serię jesienną, gdzie zgłębiamy podstawy technologii Big Data. Będziemy kroczek po kroczku poznawać absolutne podstawy. Celem jest “zahaczka” dla każdego, kto chce ruszyć z tematem, ale nie ma pomysłu jak to zrobić:-).
Drugie wideo to rozpoczęta miniseria o Hadoopie. Konkretnie:
Co to jest Hadoop
Jakie komponenty zawiera Hadoop
Jak działa Hadoop
Jak powstał – czemu jest tak bardzo ważny?
Jaka jest architektura HDFS?
Zachęcam do subskrypcji kanału na YouTube!
Dzięki temu nie przegapisz żadnego wideo z serii jesiennej!
Wideo obejrzysz tutaj:
Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)
Jak działają wyszukiwarki internetowe? Jak jest zbudowane google? Dlaczego wyniki wyszukiwania różnią się, mimo wpisania tych samych fraz? Jak działają podpowiedzi podczas wpisywania fraz? Jak możemy zbudować swoją własną wyszukiwarkę?
O tym i o wielu innych rzeczach w dzisiejszym odcinku Big Data Po Polsku;-).
Nowy odcinek co drugą środę. Zostań na dłużej! Subskrybuj kanał tam gdzie słuchasz oraz zapisz się na newsletter.
Odcinek (5) – Jak działa Google?
Gdzie znajdziesz ten odcinek?
Podcast znajdziesz w kilku miejscach. Linki będą sukcesywnie dochodzić.
Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)
Jak wyglądają szkolenia Big Data? Jakie są rodzaje szkoleń Big Data? Co sprawia, że szkolenia w Riotech Data Factory są skuteczne? Na co stawiamy akcent?
O tym wszystkim w najnowszym wideo;-). Zachęcam nie tylko do obejrzenia, ale także subskrypcji kanały RDF na YouTube!
Szkolenia Big Data – jak to wygląda?
Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)
Być może jesień to dla Ciebie czas przygnębienia. W dzisiejszym odcinku “Big Data Po Polsku” staram się pokazać, że może być dokładnie na odwrót. Przeżyjmy jesień “na własnych zasadach” – roziwjajac się, ucząc i… czerpiąc z tego przyjemność. Odcinek(4) to także miejsce, które będzie punktem wyjścia do poznania kilku kluczowych technologii – a więc przegląd technologii Big Data! Nowy odcinek co drugą środę. Zostań na dłużej! Subskrybuj kanał tam gdzie słuchasz oraz zapisz się na newsletter.
Odcinek(4) – co robić w jesień, żeby nie była depresyjna?
Gdzie znajdziesz ten odcinek?
Podcast znajdziesz w kilku miejscach. Linki będą sukcesywnie dochodzić.
Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)
Być może to absurdalne, ale co jakiś czas muszę sobie przypominać naprawdę podstawowe rzeczy. Takie, do których aż głupio się przyznać. Z jednej strony z pewnością nie jest to powód do dumy i należy nad tym pracować. Z drugiej – pozwala mi to nabrać odpowiedniej pokory. I przydaje się ona szczególnie podczas szkoleń, gdy widzę jak kursanci nie pamiętają podstawowych poleceń, składni itd. Najgłupszą rzeczą którą mógłbym zrobić byłoby irytowanie się na nich. Fakt, że sam ma takie problemy pomaga mi lepiej podejść w takich sytuacjach;-).
Dzisiaj o takich “głupotkach” w kontekście linuxa.
Baza wiedzy
Dzisiaj jeden ze sposobów na poradzenie sobie z tym. Baza Wiedzy – coś co bardzo, bardzo polecam. Nie polegamy jedynie na głowie, ale spisujemy to co mamy zapamiętać w jednym miejscu, do którego możemy zajrzeć. To może być zwykły zeszyt, może być dokument na Google Drive – cokolwiek. Dzięki temu nie tylko mamy do czego się odnieść, ale też powtarzamy sobie zapisując “po swojemu”. Dzisiaj wyjątkowo taką bazą wiedzy chcę się podzielić. Wpadłem na pomysł, że raz na jakiś czas będę robił notatki techniczne.
Takie notatki techniczne nie będą tutorialem, ale skrótowym zapisem teorii lub wykonania czegoś, co po raz kolejny muszę odkrywać na nowo.
Kawa w dłoń i lecimy z tematem. Dzisiaj notatka o Linuxie. A konkretnie o użytkownikach, grupach i uprawnieniach.
Aha, warto nadmienić że ja pracuję obecnie na Ubuntu. No to lecimy już serio.
Uprawnienia w Linux (centos, ubuntu, obojętnie)
Typy uprawnień:
Read
Write
Execute
Typy pliku:
d – Folder (directory)
s – Plik specjalny (special file)
– (zwykły plik – regular file, oznaczany jako taki właśnie myślnik)
Jak sprawdzić uprawnienia?
Wchodzimy w odpowiedni folder w którym chcemy sprawdzić uprawnienia plików (i folderów).
Wpisujemy polecenie ls -l
Interesuje nas to co jest po lewej stronie konkretnego pliku – czyli 10 znaków.
Jeśli (jak ja kiedyś) sądzisz, że wyszukiwarka internetowa to najnudniejszy temat na świecie – powinieneś/naś przesłuchać ten odcinek. Staram się udowodnić, że “to jedno okienko” wpłynęło na biznes, gospodarkę, nasz styl myślenia czy nawet… na podejście do systemu edukacji!
Nowy odcinek co drugą środę. Zostań na dłużej! Subskrybuj kanał na Spotify czy YouTube oraz zapisz się na newsletter (na dole strony)
Odcinek(3) – Jak wyszukiwarka Google zrewolucjonizowała nasze życie, biznes czy system edukacji?
Gdzie znajdziesz ten odcinek?
Podcast znajdziesz w kilku miejscach. Linki będą sukcesywnie dochodzić.
Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)
Idea jest prosta. Rekrutujesz osoby z podstawową wiedzą. Nie, nie Big Datową. Podstawową wiedzą z IT. Na przykład studentów. Następnie poddajesz ich odpowiedniemu szkoleniu. Po 1.5-2 mies. kursanci zaczynają przygodę w projekcie. Niemożliwe? Możliwe, o ile kilka kroków będzie solidnie zrealizowanych. Takie podejście to prawdziwe wybawienie w obliczu trudnodostępnych fachowców.
Jak pozyskać inżynierów Big Data? Nie pozyskuj – ukształtuj!
Wiele firm inwestuje obecnie w Big Data. I tyleż samo firm doświadcza problemów z pozyskaniem pracownika. Z jednej strony stawki które kandydaci sobie życzą potrafią być zawrotne. Z drugiej strony, po odpowiednim sprawdzeniu często wychodzi, że kandydat mimo pewnego doświadczenia (wyrażonego w stażu pracy), nie dysponuje szczególnie imponującą wiedzą. Mówiąc delikatnie;-). Pytanie stare jak polska polityka: “Jak żyć?”.
Odpowiedź, którą chcę dzisiaj przytoczyć, nie będzie absolutnie pełna. I nie zastąpi to poszukiwania specjalistów na wakat seniora czy mocnego mida. Przykro mi. Chcę jednak zwrócić uwagę na coś, co często umyka wielu firmom, aco może być uzupełnieniem tego trudnego procesu, jakim jest budowa kompetentnego zespołu.
Może zamiast pozyskiwać ludzi, postawić na ich wykształcenie?
W skrócie wygląda to tak, jak napisałem we wstępie. Pierwszy plus: znaleźć kogoś z niezłymi umiejętnościami (o tym jakimi, napiszę jeszcze potem) nie jest ciężko. Kolejny plus: przed projektem naprawdę wiemy, jakie przygotowanie ma pracownik (gdy zatrudniamy, zawsze to pewna niewiadoma). Wreszcie największy plus: nie szukamy idealnego kandydata pod projekt. Możemy go wykształcić w konkretną stronę. Oczywiście szkolenie powinno być przekrojowe i dawać ogólne pojęcie. To jednak jakie technologie będą wykładane, zależy głównie od firmy. To jakby zamiast kupować buty z półki – zamówić uszyte pod konkretny bieg.
Przygotowanie i przeprowadzenie takiego szkolenia ma kilka etapów. Jako, że niedawno zakończyłem jedno z nich, zanurzmy się w kolejne etapy, sprawdzając “jak to się robi” na konkretnym przykładzie.
Faza wstępna – określenie celu i rekrutacja
Zanim cokolwiek się zacznie, trzeba się przygotować. To dość logiczne – bez kursantów szkolenie może przynieść niesatysfakcjonujące efekty. W związku z tym należy zrobić dwie rzeczy:
Określić po co chcemy kursantów
Zrekrutować przyszłych wojowników.
W punkcie pierwszym, mamy do czynienia przede wszystkim z wybraniem projektu, lub paru projektów, w których potrzebujemy solidnych juniorów. Dzięki temu będziemy znali zakres technologiczny. Warto zadać sobie takie pytania jak:
Jakie technologie są wykorzystywane w projekcie? (wypisujemy wszystkie)
Które technologie są używane w jakim stopniu? (z jednych korzysta się czysto użytkowo i doraźnie, inne są rdzeniem projektu)
Jakie języki programowania są w użyciu?
Które z wyżej wymienionych chcemy, aby znali kursanci? Przy tym pytaniu warto się zatrzymać, bowiem korci żeby “napchać ile wlezie”. Lepiej jednak dość dużo obciąć, co przełoży się na lepsze opanowanie materiału.
Czy są inne aspekty technologiczne, które chcemy dodać? Na wszelki wypadek, lub dla uniknięcia zbyt wąskiego wyszkolenia (można dodać tutaj ogólną wiedzę np. z technologii cloudowych).
W punkcie drugim wybieramy konkretne osoby. Co na pewno muszą aplikujący?
Znać podstawy języka – najlepiej ogólnie rzecz biorąc, znać podstawy javy, jako fundamentu Big Data (choć są od tego wyjątki oczywiście).
Mieć opanowane podstawy relacyjnych baz danych
Znać podstawy linuxa oraz sieci. Tu chodzi o naprawdę proste rzeczy, jak połączeni po SSH, posługiwanie się bashem.
Rozumieć o co chodzi w GIT.
Wiedzieć, na co się piszą;-).
W przypadku ostatniego szkolenia, języki to była java i scala (przy czym scalę poznali już na szkoleniu). Dodatkowo kursanci dostali bardzo mocny przekrój technologiczny. Nie chcę wymieniać wszystkiego, natomiast m.in. pojawiły się:
Hadoop + Hive
Spark
Airflow
Ogólne warsztaty ze streamingu
HBase
Jenkins
Tyle wystarczy na dobry początek. Aha! Warto wspomnieć, że tego typu szkolenie raczej nie powinno być masówką. Tutaj były to zaledwie 2 osoby, może to być 3,4, maksymalnie 5 osób (chociaż 5 to już dość dużo). Dodatkowo były to osoby z różnych miejsc w Polsce – całość szkolenia była przeprowadzona on-line.
Czas ruszyć na samo szkolenie!
Warsztaty
Zasadniczo samo szkolenie składa się z dwóch części. Pierwsza z nich to właśnie warsztaty. Podstawowy cel: poznać technologie. Każdy dzień to fundamenty jednej technologii. No dobrze – niekiedy dwa dni. Wszystko zależy od ilości całego materiału:-).
Warsztaty mają następującą strukturę: rano zaczynamy dzień od wykładu, który wprowadza w temat konkretnej technologii. Następnie kursanci mają cały dzień na wykonywanie ćwiczeń, które zlecił im instruktor. W tym czasie instruktor jest dostępny, ale nie bierze aktywnego udziału w ćwiczeniach. Wieczorem (albo popołudniem – zależy od pory roku;-)) wszyscy spotykają się, żeby przegadać wątpliwości które się pojawiły, omówić ćwiczenia itd. Takie podsumowanie dnia.
Omawiane szkolenie zaczęliśmy od krótkiego wstępu do Big Data. Osobiście jestem fanem przechodzenia od ogółu do szczegółu. No i spoglądania na szerszy kontekst. O ile potem jest czas na zanurzenie się w technikaliach, o tyle warto ciągle mieć świadomość częścią jak wielkiego świata jesteśmy. Znacznie więcej opisywałem tego w ebooku – zachęcam do zajrzenia. Kursanci odsłuchali prezentacji, następnie ustaliliśmy wspólnie kształt całego szkolenia, które przejdą. Przestrzegłem przed kluczowymi rzeczami i… ruszyliśmy do akcji!
Jeszcze pierwszego dnia zrobiliśmy krótki warsztat z gita. Chociaż oboje znali już podstawy, pokazałem jak to się robi w projektach komercyjnych. Po co stosujemy system kontroli wersji i w jaki sposób go używać.
Kolejne 2.5 tygodnia upłynęły na poznawaniu technologii w przyspieszonym tempie. Szczerze przyznam, że poradzili sobie wyśmienicie. To był pierwszy raz, gdy dostawałem od kursantów zrobione prawie wszystkie zadania dzień w dzień. Fakt jest jednak taki, że taki sprint wyczerpuje i nie zawsze wszystko uda się skończyć. Dlatego pod koniec zostawiłem jeden “dzień wolny”. Tym bardziej, że warsztaty z Elastic Searcha postanowiłem połączyć z HDFSem i Sparkiem;-). Naprawdę przekrojowo, ale dali radę wyśmienicie!
Zacny zespół. Nawet bardzo;-).
Projekt
Gdy dokończyliśmy poznawanie fundamentów technologicznych, przyszedł czas na najciekawszy kąsek. W czwartek spotkaliśmy się i zaczęliśmy… projekt. Tak – prawdziwy projekt. Właściwie to taka miniaturka projektu komercyjnego. Z githubem, na klastrze szkoleniowym RDF, z metodyką pracy i – co ważniejsze – konkretnym celem biznesowym.
Infrastruktura szkoleniowa
Sam klaster odgrywał pewną rolę już wcześniej, na etapie warsztatów. Przygotowałem go specjalnie na potrzeby szkoleń. Każdy z kursantów ćwiczy dzięki temu w warunkach ekstremalnie zbliżonych do rzeczywistych. To klaster złożony z dwóch nodów (serwerów), które pracują w chmurze. Jest na nich Hadoop, Spark, Elasticsearch i czego tylko dusza zapragnie (nawet Hue!).
Poniżej możesz obejrzeć wideo, w którym dość szczegółowo opowiadam o tym na czym pracują kursanci RDF i dlaczego akurat tak;-).
Organizacja projektu
Co ważne, kursanci dostają konkretne wymagania biznesowe projektu. To w założeniu ma być system, który mógłby mieć zastosowanie w biznesie czy R&D. Oczywiście niekoniecznie pełny, bardziej PoC, ale grunt że wiemy dokąd dokładnie zmierzamy i dlaczego.
Dodatkowo kursanci pracują w ramach uproszczonego scruma. Mamy swojego boarda z taskami, mamy codzienne spotkania, całość następuje przyrostowo. W ten sposób pierwsze zderzenie z uporządkowanym systemem pracy jest jeszcze przed wejściem do prawdziwego, komercyjnego projektu.
Oczywiście wdrożony jest także cały system pracy z kontrolą wersji. Jest praca z branchami na Git, Są Pull Requesty, code review. Co więcej – zanim code review pójdzie do instruktora (tutaj do mnie), najpierw to kursanci sami sobie sprawdzają swoją pracę.
Duża skala
Mimo, że projekt jest miniaturą – wcale nie jest “niepoważny”. Prawda jest taka, że kursanci mają od pierwszego dnia ogrom pracy do wykonania. W tym przypadku zbudowali 4 moduły pobierające, odpowiednio dużo modułów przetwarzających, do tego indeksacja i kilka komponentów pomocniczych. Dołóżmy jeszcze orkiestrację (przy pomocy airflow) oraz CI/CD (Jenkins) i mamy… naprawdę solidny kawał roboty do przerobienia. Dla dwójki osób. Które dodatkowo nie miały nigdy do czynienia z Big Data.
Na szczęście naszym kursantom całość poszła śpiewająco;-). Nie obyło się bez trudów i wątpliwości, ale o tym już za chwilę.
Chcę jednak podkreślić, że projekt podczas tego typu szkolenia przekrojowego, to naprawdę ogrom pracy i wytężone obroty mózgu. W ten sposób kursanci w praktyce gruntują sobie wyłożoną wcześniej w metodyczny sposób, wiedzę.
Jako że projekt był systemem wspierającym analizę inwestorów, zespół połączył dane finansowe, gieldowe oraz aktywność około-spółkową na Twitterze. Pisząc “okołospółkową” mam na myśli, że często liczy się nie tylko oficjalny profil firmy. Przykładowo – w przypadku PKN Orlen głupotą byłoby zignorowanie profilu Prezesa Daniela Obajtka, który jest bardzo aktywny i zaangażowany. Podobnie należy starać się wyłapywać także to, co mówią inni.
Dane, po szeregu operacji, trafiają do Elasticsearcha, skąd zaciągane są i wizualizowane przy pomocy Kibany. Poniżej można zaobserwować finalny efekt prac – czyli jeden z dashboardów, który wizualizuje część danych.
Nie tylko umiejętności techniczne
Prezentacja
Całość kończyła się prezentacją przed innymi członkami firmy. Pamiętasz jak to wyglądało na studiach? Praca do samego rana, potem szybko klejona prezentacja w tramwaju, wpadanie spoconym na zajęcia i… prezentujemy!
Na szczęście, tutaj ustawiamy sobie deadline wykonania projektu na ok. 2-3 dni przed prezentacją. Raz, że wiadomo, że będą obsuwy. Po drugie – na długo przed punktem kończącym szkolenie, spotykamy się i daję kilka wskazówek. Z doświadczenia wiem, że nie jesteśmy nauczeni prezentacji. Raczej przygotowując takowe zaczynamy od otwarcia Power Pointa, co jest raczej niepokojące. Spotykamy się więc i staram się w kilku zdaniach przedstawić odrobinę inny obraz prezentacji. Nakierowany na słuchacza, a nie na “byle zrobić”. Nie żebym sam świetnie prezentował. Coś tam jednak wiem i to “coś” staram się podpowiedzieć, zawsze odrobina do przodu;-).
Potem kursanci samodzielnie przygotowują i ćwiczą prezentację, aż do punktu dzień przed – gdy prezentują ją mnie. Tak próba generalna. Albo, jak się okazuje, niekoniecznie generalna. Bo po moich poprawkach tym razem kursanci poprosili o jeszcze jedną taką próbę.
Efekt? Sama prezentacja wypadła bardzo dobrze, a kursanci… nawet się nie stresowali. Wiedzieli co mają zrobić, poszli po swoje i wzięli co do nich należało.
Dzięki temu szkolenie przekrojowe nauczyło nie tylko Hadoopa, Sparka i Elasticsearcha. Nauczyło również skutecznie przedstawiać efekt prac. A to czasami – niestety – ważniejsze w kontakcie z klientem.
Współpraca
O ile warsztaty są w miarę indywidualne, o tyle projekt to wspólne dziecko kursantów. I to, że sukces zależeć będzie od ich współpracy, mają wbijane od pierwszego dnia, gdy się zobaczyliśmy. Tu naprawdę jest dużo miejsc, w których coś może pójść “nie tak”. I w związku z tym bardzo dużo punktów zapalnych. Jednym z zadań szkolenia jest zetrzeć ze sobą kursantów w tych momentach w taki sposób, żeby wiedzieli, że stoją w jednym szeregu i że od tego czy pomogę koledze/koleżance, zależy to czy dobrniemy do celu.
Jeśli chodzi o naszych kursantów, nie widziałem żadnych spięć, żadnego obrzucania się winą. I fantastycznie było na to patrzeć. Gdy jedno rozwiązało jakiś szerszy problem, dzieliło się z drugim. Razem wypracowywali koncepcję, struktury, pomysły. Razem sprawdzali sobie kod i dzielili się wątpliwościami. To zżywa. Co ważniejsze natomiast – to pokazuje, że nikt nie jest idealny, uczy pokory i tego, że warto pracować wspólnie, razem, a nie tylko w jednym zespole.
Odbiór krytyki
Takie szkolenie uczy poprawnego odbioru krytyki. Oczywiście nie jest to szkolenie z przyjmowania krytyki, ale jakiejś części tego tematu owszem, uczy. I poruszam to, co ciekawe, jeszcze na początku, przy okazji szkolenia z Gita, a potem wielokrotnie w trakcie projektu. Żeby zrozumieć o co chodzi, powiem tylko, że nasz kod to często nasze dziecko. Traktujemy swoją pracę wielokrotnie jak przedłużenie nas samych.
W trakcie pracy następuje natomiast taki moment jak “code review”. Pokazujemy nasze zmiany innym, a inni je komentują. I nie pokazujemy po to, żeby usłyszeć jacy jesteśmy wspaniali, tylko gdzie mamy błędy, gdzie postąpiliśmy definitywnie niezgodnie ze standardami, a gdzie całość można znacząco uprościć.
To nigdy nie jest łatwe, czytać na swój temat szereg uwag. I to wielokrotnie. Dlatego od początku tłumaczę, że kod to nie my. Krytyka kodu, to nie krytyka nas. A uwagi służą temu, żeby zbudować lepszy produkt finalny. I przy okazji, żebyśmy my stali się lepszymi programistami, inżynierami. Ta teoria + wielokrotna praktyka później, ustawia kursantów w odpowiednim punkcie. Nie chodzi o to, żeby krytyką się biczować. Nie chodzi też o to, żeby spływała jak po kaczce. Ona ma być konstruktywna.
Ma to też drugą stronę medalu – sami mamy dawać możliwie konstruktywny feedback. Liczę, że zostanie to potem z kursantami w życiu;-)
Wytrwałość
Ostatnie co należy wspomnieć, to kwestia wytrwałości. Kursanci nie rozwiązują jedynie przykładowych ćwiczeń. Oni mają całe dnie, żeby poradzić sobie z – często – trudnym, złożonym problemem. Takim, który sprawia kłopoty na poziomie pomysłu, konfiguracji, implementacji.
Wiem dobrze, że czasami kursanci wyrywają sobie włosy z głowy. To są normalne problemy, które przyjdą potem w projekcie. Dlatego zderzamy się z nimi już tutaj, w kontrolowanych warunkach.
No właśnie. Tego typu przekrojowe szkolenie z Big Data to dużo potu, wysiłku, presji. Natomiast nie jest to nigdy presja niezdrowa. I to jeden z moich obowiązków, żeby w odpowiednim momencie pomóc, podpowiedzieć, pokrzepić dobrym słowem. Żeby ciągle utrzymywać dobrą atmosferę, bo presja ma wynikać z wewnętrznego poczucia obowiązku, a nie z napięcia między członkami takiego projektu. To bardzo ważne, bo z jednej strony pomaga podejść do komercyjnego projektu. Z drugiej – nie jest wyniszczające i wypalające.
Nasi kursanci byli niezwykle wytrwali. Pracowali ciężko, w sposób zdyscyplinowany. Czy był jakiś brak? Owszem – brak wymówek i migania się od roboty. Oboje ciężko zasuwali, żeby nauczyć się i dopiąć całą robotę. Jestem szczerze przekonany, że świetnie poradzą sobie w najbliższym projekcie i w życiu. Wróżę dużo sukcesu, bo dysponują fantastycznym zestawem cech. A teraz – mam nadzieję – także solidną wiedzą technologiczną;-).
Podsumowanie
Szkolenie przekrojowe może być realizowane w rozmaity sposób. Staram się podczas niego:
Nauczyć podstaw technologii w metodyczny sposób
Ugruntować wiedzę poprzez łączenie elementów w praktycznych zadaniach (jak projekt)
Dorzucić elementy miękkie – komunikację, organizację projektu, umiejetność odpowiedniego podejścia do krytyki.
Jeśli tylko jesteś przedstawicielem firmy, która chciałaby wyszkolić nowych pracowników w podobny sposób, napisz na
kontakt@riotechatafactory.com
Odpowiem tak szybko jak to możliwe. Dogadamy razem szczegóły i ułożymy plan w taki sposób, żeby za jakiś czas Twoje szeregi zasilili wspaniali Inżynierowie Big Data. Moją misją jest pomoc w takich właśnie momentach. Instruktorom z którymi współpracuję, także;-).
Jeśli chcesz mnie lepiej poznać, mam dla Ciebie kilka propozycji:
Zapisz się na newsletter i odbierz darmowego ebooka o Big Data. Prawie 140 stron opisu branży z wielu różnych stron.
Chociaż inflacja to temat ostatnio dość przykry – warto szukać systemowych pomysłów “jak to ugryźć”. Tak się składa, że dzięki danym jesteśmy w stanie podejść do wyliczania inflacji w sposób niezwykle nowatorski. W dzisiejszym odcinku podcastu “Big Data Po Polsku” o tym jak moglibyśmy to zrobić. I o tym, że U NAS, W POLSCE to nie musi być takie odległe.
Nowe odcinki w co drugą środę. Zostań na dłużej! Subskrybuj kanał oraz zapisz się na newsletter;-)
Odcinek(2) – jak wyliczać dokładną inflację dzięki Big Data?
Gdzie znajdziesz ten odcinek?
Podcast znajdziesz w kilku miejscach. Linki będą sukcesywnie dochodzić.
Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)
Wreszcie, nastała ta chwila. Co prawda trzeba było przepłynąć naprawdę wzburzone morze, ale jest – mój pierwszy pełnowartościowy podcast! I – mam nadzieję – pierwszy taki podcast o Big Data. Przygotowywałem się (a może raczej – “zbierałem się”) do tego długo i tak naprawdę to było moje marzenie. Liczę, że jego spełnienie pozwoli Ci odkryć nieznane lądy;-).
Odcinek(0) – Jak poznawać świat dzięki Big Data?
Co czeka nas w zerowym odcinku? To “pilot” – chciałem dać pewien przedsmak tego co nas czeka. Co więc tu znajdziesz?
Będzie o ciekawości – czyli jednej z najważniejszych naszych cech.
O tym, że nasz świat jest zbudowany z danych i… rządzony jest przez algorytmy.
Poznasz jednego z dwóch najmłodszych członków mojej rodziny!
Dowiesz się kim jestem i o czym będzie ten podcast.
No i… wyruszymy w podróż!Najpierw na wakacje, zobaczyć że nawet tam towarzyszy nam Big Data. Potem w podróż szlakiem Big Data;-)
Odcinek(1) – Jedna rzecz, która pomoże Ci (lepiej) zrozumieć branżę
Automatycznie wypuściłem dwa odcinki – na zachętę;-). Tym razem w odcinku:
Jakie jest moje “małe” marzenie, które zmieni Polskę w “kraj big datowy”?
Jaka jest najważniejsza rzecz w branży Big Data?
Jak to jest realizowane technologicznie?
Czym nie będzie ten podcast?
Przede wszystkim – będzie tu mało technikaliów. Nie chcę mówić że ich nie będzie. Jeśli się jednak pojawią, to w bardzo prostej, strawnej formie;-). O co chodzi? Oczywiście nie będę cytował kodu. Z drugiej strony, nie wyobrażam sobie mówić o Big Data na tyle ogólnie, żeby nie dotknąć choćby “mięsa”, czyli budulca całości. Takie ogólne gadanie zostawiam badaczom z uniwersytetów. My tu przede wszystkim robimy Big Data, potem poznajemy szerszy kontekst;-).
Mam nadzieję jednak, że taka zdrowa dawka technikaliów ubogaci każdego. Bez zbędnych szczegółów, ale hej! Poznajmy jak to działa!
Czemu “Big Data Po Polsku”? Czyli o pierwszym takim podcascie.
No więc mamy tu grę słów. Z jednej strony chcę uwypuklić, że cały podcast jest po polsku. I że całe to środowisko (RDF) jest “po polsku”– co jest pewną odmiennością w świecie IT, szczególnie tej branży. Z drugiej strony –to nawiązanie do “mów po polsku!” – czyli po prostu “mów zrozumiale”. Mamy problem w branży ze zrozumiałym opowiadaniem i technologii. A jak ktoś już umie, to potem okazuje się, że średnio umie samą technologię. Tu postaramy się mówić o tym co rozumiemy w prostych słowach. Prostych, ale bez banalizowania!
Kolejna rzecz – ten podcast nie będzie wykładem nauczyciela do ucznia. Sam widzę jaki ogrom wiedzy mam do poznania. I chcę wyruszyć w podróż po światowym oceanie widzianym przez pryzmat danych. Nie chcę jednak wyruszać sam. Dlatego zapraszam Cię na pokład – zaciągnij się do mojej załogi i płyńmy razem!
Co dokładnie, kiedy i jak?
Tematycznie podcast będzie dzielił się na 3 części:
Poznawanie świata – oczywiście przez pryzmat danych. Niemniej dowiemy się jak dane zmieniają nasze społeczeństwo, wojnę, jak mogą zmienić medycynę czy… jak moglibyśmy zapanować nad tematem inflacji;-).
Poznawanie branży – tak jak powiedziałem, będzie nieco technicznych odcinków. Nie chcę od tego uciekać. Chcę się z tym zmierzyć żeby pokazać, że można o tym opowiadać przystępnie.
Szkolenia i biznes – RDF to firma szkoleniowo-doradcza. Będę opowiadał o “kuchni” tej roboty. O tym jak szkoli się adeptów Big Data, o swoich wpadkach z tworzeniem szkoleń czy… o tym jak samemu możemy się lepiej uczyć!
Jaka forma?
Podcastu “Big Data Po Polsku” będziesz mógł/mogła wysłuchać w dwóch formatach:
Monolog – czyli spotkasz się sam na sam ze mną;-). Takie odcinki będą trwały około 20-30 minut.
Rozmowa lub wywiad – jestem przekonany, że uda mi się przekonać do rozmowy fascynujących gości. Takie odcinki będą trwały dłużej. Ile? Cóż… no-limit!
Kiedy? W co drugą środę. Przynajmniej póki co – do końca roku;-). Uznajmy, że to pierwszy sezon. Jeśli się powiedzie, drugi będzie częstszy.
Gdzie znajdziesz podcast?
Podcast znajdziesz w kilku miejscach. Linki będą sukcesywnie dochodzić.
Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)
Po miesiącach materiałów (wideo i artykułów) technicznych, chciałbym uchylić rąbka “tajemnicy” dotyczącej szkoleń RDF. Konkretnie, na wideo opowiadam (i pokazuję) dość szczegółowo jaka jest infrastruktura technologiczna na której szkolą się kursanci RDF.
Klaster RDF do szkoleń – czyli na czym pracują kursanci?
Poniżej wklejam wideo i zapraszam do subskrybowania kanału RDF na YouTube;-)