Sięgnij po swój Second Brain! Zainwestuj kilka minut, a zyskasz narzędzie do osiągania wielkich celów.

Sięgnij po swój Second Brain! Zainwestuj kilka minut, a zyskasz narzędzie do osiągania wielkich celów.

Czym jest “Personal Knowledge Management”? Jak podejść do budowania swojej własnej bazy wiedzy? O tym wszystkim w dzisiejszym artykule Wojtka Zdziebkowskiego – członka newslettera “Na Szlaku Big Data”.

Jeśli szukasz sposobu, aby gromadzona wiedza nie była marnowana, to jesteś w znakomitym miejscu!

O co w ogóle chodzi z PKM?!

Personal Knowledge Management – bo takie jest rozwinięcie tego skrótu – to system zbierania, organizowania i przetwarzania informacji. Założeniem jest stworzenie swojej osobistej bazy wiedzy w celu sprawniejszego wyszukiwania i wykorzystania zebranych wcześniej informacji. Ciężko stwierdzić, kiedy narodziło się pojęcie Osobistej Bazy Wiedzy. Jednak dziś w erze komputeryzacji ludzkość jest wręcz bombardowana tysiącami różnych wiadomości, natomiast wiedza nigdy nie była tak łatwo dostępna.

Dziś od materiałów naukowych, artykułów, kursów itd. dzieli nas kilka kliknięć myszką, czasami również większa bądź mniejsza kwota. W takich czasach, proces prostego zbierania oraz przetwarzania informacji, lub narzędzia, żeby ten proces stał się przystępny są na wagę złota. W roku 2014 z nowoczesną wersją PKM wyszedł do świata ekspert od produktywności, Tiago Forte.

Koncepcja promowana przez Tiago nosi nazwę Second Brain (drugi mózg), czyli system rozszerzający nasz fizyczny umysł o dodatkową pojemność. Założeniem jest posiadanie systemu cyfrowego lub analogowego, gdzie będziemy zbierać i organizować informacje, aby móc je w dowolnym momencie bez problemu wykorzystać. Second brain uzupełnia nasz umysł i daje łatwy dostęp do odpowiednio odrobionych informacji, bez strachu, że w najbardziej potrzebnym momencie będziemy mieć pustkę w głowie. W całej zawiłości chodzi głównie o możliwość prostego przetwarzania informacji, a następnie łączenia je w logiczne powiązania w dowolnym momencie.

Prekursorem systemu zarządzania wiedzą był natomiast Niklas Luhmann, autor ponad 70 książek i 400 artykułów. System opracowany przez Luhmanna nosi nazwę Zettelkasten i pomógł twórcy, nie tyle robić dobre notatki, co przyswoić całą zgromadzoną wiedzę. W końcu to jest chyba najważniejsze? Nie ilość zgromadzonej wiedzy, ale możliwość swobodnego korzystania z niej.

Niklas Luhmann notował wszystkie swoje idee i pomysły na pojedynczych kartkach papieru i nadawał im identyfikatory. Każda notatka poza swoim identyfikatorem miała też identyfikator wszystkich notatek spokrewnionych. A te grupy połączonych notatek trzymane były blisko siebie, żeby zawsze mieć do nich dostęp. Czasy Luhmanna były jeszcze mocno analogowe, w sieci można zobaczyć nagranie, na którym autor prezentuje swój system zettelkasten, wygląda to co najmniej przerażająco… Dzisiaj to wszystko można robić cyfrowo, bez setek szafek i milionów kartek, więc może warto z tego skorzystać.

Niklas Luhmman wraz ze swoim archiwum Zettelkasten. Źródło: https://bilder.deutschlandfunk.de

Niklas Luhmann wraz ze swoim archiwum Zettelkasten.
Źródło: https://bilder.deutschlandfunk.de

Czy Zettelkasten to to samo co second brain? Nie, ale są to bardzo powiązane tematy. Zettelkasten ma swoje konkretne zasady, a Second Brain to pojęcie bardziej ogólne i elastyczne, ale też jakieś zasady posiada, o nich jednak później.

Gdzie podział się mój system?

Robię notatki zbieram informacje i ciekawe materiały, po co mi w ogóle system?

To teraz się zastanów:

  • ile razy wracałeś do swoich notatek?
  • Czy wiesz, gdzie co zapisałeś?
  • A ile masz otwartych kart w przeglądarce z czymś ciekawym na potem?

Ja niechlubnie się przyznam, że prawie 70, ale dopiero pracuję nad moim second brain. To jest właśnie problem, którego może na pierwszy rzut oka się nie dostrzega. Dziesiątki kart na potem, setki porozrzucanych notatek w różnych miejscach czy tysiące pozaginanych rogów kartek albo podkreśleń w książkach. Tylko dlatego, że coś wydaje Ci się ciekawe podejmujesz pierwszy krok, czyli zaznaczasz i zostawiasz na potem.

W końcu po długim czasie przychodzi “potem”. Raz na pół roku nudzisz się tak bardzo, że zabierasz się za porządki. Bierzesz w rękę pierwszą kartkę, odpalasz jedną z otwartych zakładek i patrzysz myśląc nieśmiało “po co ja to napisałem/otwarłem, eee niepotrzebne”. W ten sposób wyrzucasz do kosza kilka kartek i zamykasz parę otwartych kart, a przy okazji te minuty a może godziny, które w skali roku wyrzucasz do kosza. Nie potrafisz sobie przypomnieć, jaki miałeś pomysł na to wszystko wtedy, kiedy zdecydowałeś się zostawić te informacje na potem.

Baza wiedzy może być przedstawiona w formie grafu.

A co, jeśli masz system? Zaznaczasz to co Cię interesuje, otwierasz zeszyt, telefon, komputer cokolwiek. Odpalasz odpowiednią aplikacje albo chwytasz za długopis. Masz system, więc wiesz, jak powinna wyglądać struktura konkretnej notatki. Ba, masz nawet szablon i to nie jeden! Pierwszy na ciekawostki, kolejny na rzeczy zabawne, inny na rzeczy, których chcesz się nauczyć. A może tylko jeden? Może tak, to zależy od Ciebie, bo to Twój system.

Więc otwierasz swój template i cyk, tytuł, źródło, kategoria, na koniec treść tego co cię zainteresowało. Może skopiowana do dalszej obróbki, a może już zredagowana. Trwało to chwile, ale teraz posiadasz notatkę z przypisaniem do kategorii, ze źródłem, do którego możesz wrócić, może z połączeniem do jakiejś konkretnej grupy notatek. Co Ci to daje? Jeśli będziesz potrzebował jakiejś informacji najpierw otworzysz swoją bazę wiedzy. Masz tam już zapisane zagadnienie, którego szukasz.

Najprawdopodobniej, taki jest cel, jest to już wiedza obrobiona przez Ciebie. Nie musisz przebijać się przez ściany artykułów ani pozycje wyszukiwarki. Już posiadasz to co potrzebujesz i możesz to łatwo znaleźć, na pewno dużo łatwiej niż w dziesiątkach otwartych kart na potem, albo stosie notatek. I co dalej? Bierzesz to co chcesz i idziesz z tym w świat!

Czas na zasady…

Wspominałem, że koncepcja second brain ma swoje zasady. Może jeszcze tego nie wiesz, ale wszystkie zdążyłeś już poznać. W wersji oryginalnej noszą zgrabny skrót CODE, czyli:

  1. capture – Zbierasz informacje
  2. organize – Przetwarzasz je i organizujesz, w swojej bazie chcesz tylko to co jest najważniejsze, żadnych śmieci
  3. distill – Przychodzi potrzeba, więc szukasz i wyciągasz oczekiwaną informację
  4. express – Cytując zdanie z poprzedniego akapitu: “Bierzesz to co chcesz i idziesz z tym w świat!”. Czyli masz już informację, której potrzebowałeś i ją wykorzystujesz.

To są właśnie główne zasady osobistej bazy wiedzy.

Zaprojektuj swoją mapę!

Na koniec tej części przybliżymy sobie dwie dodatkowe koncepcje pozwalające lepiej organizować swoje notatki. Chodzi o metodę PARA i MOC.

PARA jest metodą organizacji bazy wiedzy opracowaną przez wspomnianego wcześniej prekursora koncepcji second brain – Tiago Forte, polega na podziale notatek na cztery kategorie:

  1. Projekty (projects) – listy zadań powiązane z celami i terminami.
  2. Obszary odpowiedzialności (area of responsibilities) – obszary twoich odpowiedzialności np. rodzicielstwo, finanse, gotowanie
  3. Źródła (resources) – notatki związane z zainteresowaniami
  4. Archiwum (archive) – wszystkie nieużywane rzeczy z poprzednich kategorii

Istotą metody PARA jest proste, szybkie i uniwersalne kategoryzowanie notatek. Ponadto autor forsuje podejście projektowe do każdego zadania lub problemu jaki napotkasz. Na czym to polega? Na rozbiciu każdego zadania na jak najmniejsze mierzalne kroki, aby unikać zabierania się do przedsięwzięć, które nas przytłoczą.

Dla przykładu chcesz się nauczyć angielskiego. Jak do tego podejdziesz? Możesz wziąć listę zadań i wpisać punkt: nauczę się angielskiego. Kiedy będziesz wiedzieć, że cel został zrealizowany? Może dasz sobie spokój po tygodniu, kiedy nauczysz się przedstawiać, bo stwierdzisz, że to jest to co chciałeś umieć. Może wrócisz do niego za dziesięć lat będąc na granicy perfekcji, mając świadomość, że ciągle możesz iść krok dalej.

Przykład notatki z mapą

Drugim sposobem jest rozbicie nauki angielskiego na mniejsze zadania, najlepiej z terminami, aby móc monitorować swój postęp. Czyli bierzesz kartkę, notes lub otwierasz aplikacje w telefonie i piszesz: nauczę się Present Simple w dwa tygodnie, następnie nauczę się 20 słów do końca miesiąca i do końca przyszłego miesiąca nauczę się Present Continuous. Główną zaletą drugiego podejścia jest to, że masz przed sobą małe mierzalne kroki i widzisz swój postęp w realizacji celu. Dodatkowo rozbijając zadanie na mniejsze kroki, tworzysz sobie prosty plan działania. Dzięki temu wiesz, co jest jeszcze przed Tobą, a co już za Tobą.

Kolejną i osobiście moją ulubioną formą tworzenia notatek jest tak zwany Map of content w skrócie MOC. Mówi się, że są trzy typy twórców notatek: Bibliotekarz, Architekt i Ogrodnik. Bibliotekarz to osoba zbierająca różne informacje. Architekt jest to osoba, która wszystko planuje. Natomiast Ogrodnik jest to osoba dbająca, aby jej notatki się rozrastały.

Właśnie notatkowi ogrodnicy stworzyli koncepcje MOC, która jest prosta, przejrzysta i pozwala na nieograniczony rozrost Twoich notatek, co może, ale nie musi być zgubne. Także staraj się zawsze zachować zdrowy rozsądek. Jak już wspomniałem koncepcja ta jest prosta, a nawet bardzo prosta. Jednak uważam, że nadaje się głównie do stosowania cyfrowo, a nie analogowo. Najważniejszym elementem “mapy kontentu” jest, jak sama nazwa mówi – mapa.

W założeniu każdy obszar zainteresowań powinien mieć swoją mapę, czyli taką notatkę tytułową. W tej mapie znajdziemy wszystkie powiązane z konkretnym tematem materiały. Dla przykładu interesuje nas gotowanie, więc tworzymy MOC Gotowanie. Każdą tworzoną notatkę z tematu gotowania linkujemy pośrednio lub bezpośrednio z naszą główną notatką MOC Gotowanie. Teraz pewnie myślisz “o gościu odkrył co to jest folder”.

Nic bardziej mylnego, całą przewagą mapy nad folderem jest to, że notatka nie musi być przypisana tylko do jednej mapy. Może być przypisana do każdej mapy, z którą coś ją łączy. Tworzymy notatkę o garnkach ze stali nierdzewnej i wrzucamy ją do naszej mapy MOC Gotowanie. Jesteśmy jednak wielkimi fanami materiałoznawstwa i posiadamy też mapę MOC Materiały. Tam też ląduje link do naszej notatki.

Dlatego też lepiej sprawdzi się forma cyfrowa niż analogowa, bo nie będziemy przecież kserowali notatki, żeby umieścić ją w dwóch mapach. W wielu aplikacjach do robienia notatek znajdziemy już opcję linkowania. Ponadto dobrą praktyką jest stworzenie czegoś w rodzaju mapy map, jakkolwiek to brzmi. Czyli tworzymy główną notatkę np. HOME i linkujemy do niej wszystkie nasze mapy. Dzięki temu nawigacja po naszej bazie jest prostsza i bardziej intuicyjna.

Obie koncepcje w większym lub mniejszym stopniu można ze sobą łączyć. Najważniejsze jest jednak tworzenie użytecznych notatek, dlatego idź i twórz! Nie bój się eksperymentować, łączyć w całość różne metody i tworzyć swoje własne zasady. Twoje notatki powinny służyć przede wszystkim Tobie z przyszłości.

Już niedługo ciąg dalszy…

Zostań na dłużej z Riotech Data Factory! Dołącz do newslettera “Na Szlaku Big Data”, żeby kompleksowo eksplorować świat wielkich danych. Jak widać, Big Data to nie tylko programowanie, ale także umiejętności “miękkie”, takie jak efektywna nauka, czy katologowanie swojej własnej wiedzy!

Już niebawem ciąg dalszy artykułów o bazie wiedzy. Dołącz do newslettera, aby nie przegapić!

Źródła i przydatne linki:

https://fortelabs.com/blog/the-4-levels-of-personal-knowledge-management/

https://www.buildingasecondbrain.com/foundation

https://medium.com/illumination/the-power-of-personal-knowledge-management-a-journey-from-chaos-to-clarity-c62474001029

https://fortelabs.com/blog/basboverview/

https://obsidian.rocks/maps-of-content-effortless-organization-for-notes/

Jak zacząć projekt w Big Data? Instrukcja onboardingu

Jak zacząć projekt w Big Data? Instrukcja onboardingu

Dziś bardzo, bardzo krótki wpis. W nawiązaniu do odcinka(20) podcastu “Big Data Po Polsku”. Poniżej przedstawiam krótką instrukcję – co zrobić, gdy wchodzimy do projektu? Jak się w nim odnaleźć? Czego odczekiwać i co skompletować w ciągu pierwszego tygodnia/dwóch?

Onboarding w projekcie Big Data. Instrukcja

  1. Ogólny cel + architektura.
  2. Poszczególne moduły + repozytoria do nich. Kluczowe mechanizmy modułów.
  3. Moduły a infrastruktura.
    • Gdzie są dane?
    • Jak uruchamiane są joby?
    • Gdzie są logi i jak je przejrzeć?
    • (jeśli jest Spark) Gdzie jest History Server?
  4. Linki do kluczowych miejsc. Repozytoria, serwisy, boardy (jira).
  5. Jak wygląda proces deploymentu?

 

A teraz – zapraszam do subskrypcji;-)

 

Loading
Jak zacząć pracę w Big Data? Moja Historia

Jak zacząć pracę w Big Data? Moja Historia

Jeśli myślisz o pracy w branży Big Data to sądzę, że zainteresuje Cię to, co chcę opowiedzieć.

W tym artykule cofniemy się do zeszłego roku (2022). Wyjaśnię, jak znalazłem rozwiązanie na wybranie odpowiedniej technologii i z jakimi przeszkodami się zmagałem szukając “furtki” do świata Big Data;-).

Zanim usłyszałem o Big Data

Początek roku był mglisty ze względu na to, że miałem kilka podejść do różnych technologii. Już wcześniej zdobyłem podstawowe umiejętności programowania obiektowego w Pythonie. Znałem również podstawy webdevu oraz relacyjnych i nierelacyjnych baz danych. W pracy używałem zarówno Pythona, jak i Javy do realizowania testów automatycznych, które pisałem i dokumentowałem (pozdro shared service). Ciągnęło mnie do wszystkiego, co się świeciło, w związku z czym zacząłem nawet czytać o Ruscie, myśląc o tym żeby zrealizować w nim pracę inżynierską (na szczęście odrzuciłem ten pomysł odpowiednio wcześnie).

Na przełomie drugiego kwartału dostałem zaproszenie do zaangażowania się w projekcie Javowym, ale ta technologia mnie przerosła – brak rzeczywistego doświadczenia w webdevie oraz poziom skomplikowania aplikacji z pewnością odegrał tu swoją rolę.

Mijał czas, a ja wciąż nie wiedziałem w którą stronę się rozwijać. Byłem niesamowicie sfrustrowany – i słusznie. Wpadłem na pomysł, aby do realizowania projektów wykorzystać równie pragnących (jak wtedy myślałem) rozwoju znajomych. Średnio to wyszło, ale cieszę się, że mimo mojej ówczesnej natarczywości jeszcze ze mną rozmawiają. Czas nieubłaganie mijał, a obrona mojej pracy inżynierskiej zbliżała się wielkimi krokami, więc postanowiłem działać. Z wykorzystaniem Flaska oraz Selenium stworzyłem WATS, czyli Web Automation Testing Simplified. Aplikację, która potwierdziła naszą tezę, mówiącą o tym, że testy automatyczne tworzy się dość łatwo i może to robić osoba niekoniecznie techniczna. I co najlepsze, działa i wygląda!

Dane, machine learning i… kolejne frustracje

Gdy napisałem aplikację do pracy inżynierskiej, poczułem że Python nie jest wcale takim prostym narzędziem (to złudne przeświadczenie narosło we mnie, kiedy próbowałem nauki języków kompilowanych). Aby zgłębić bardziej ten język postanowiłem zainteresować się uczeniem maszynowym. Nie rozumiałem matematyki idącej za algorytmami uczenia maszynowego, ale samo sprzątanie danych i robienie z nich rzeczywistego użytku w postaci wykresów zrobiło na mnie ogromne wrażenie. Postanowiłem bardziej się w to zagłębić. Spojrzałem ile zarabiają MLOpsi. Chciałem tyle samo. Zacząłem cisnąć temat. Zrobiłem certyfikaty Azure, aby zapoznać się bardziej z tematem chmur, danych oraz AI (były za darmo kiedy się uczęszczało na Virtual Training Day, kiedyś to było…). Jednak stanąłem przed ścianą, której nie mogłem pokonać.

Brak wiary w swoje możliwości, który wynikał z niezrozumienia algebry, nasilił się jeszcze bardziej wraz z realizowaniem zaawansowanych technik wytwarzania modeli uczenia maszynowego. Chciałem wejść w temat, jednak nie mogłem. Byłem na siebie zły z powodu wyboru uczelni, ponieważ nie poszedłem na Informatykę na studia dzienne. Postanowiłem, że powinienem obrać inną ścieżkę.

Zdając sobie sprawę że nie zostanę Data Scientistem, postanowiłem się uczyć metodologii DevOpsu. Jenkins, Docker, K8s, Ansible. Szło naprawdę dobrze, nawet ogarnąłem ładnie Jenkinsa oraz Dockera, ale odczułem, że pociąg już odjechał, a bez Kubernetesa nie ma co podchodzić do rekrutacji na juniora. Nie miałem też nikogo, kto mógłby mnie wyprowadzić z tego błędu.

Big Data – pierwsze spojrzenie

Znajomy raz podrzucił mi pomysł Data Engineeringu. Olałem to, bo pomyślałem że nic w tym ciekawego. Sprzątać dane, żeby inni mogli robić to, co jest najbardziej interesujące? To było w momencie, kiedy wypalałem się tematem ML, ale jeszcze nie upadłem przed ścianą.

Był późny grudzień, a ja nie miałem żadnych postanowień noworocznych. Na LinkedIn pojawił mi się artykuł Marka, który ogłaszał zapisy na szkolenie Fundament Sparka. Podczas nauki Data Science widziałem jakieś sugestie o Sparku, że ma bibliotekę do ML, do konkretnego Data Engineeringu oraz do analizy danych w zbiorach oraz streamowanych i że można go postawić na tanich kompach. Podobało mi się, że to narzędzie jest tak potężne, a na dodatek moja dotychczasowa edukacja pozwalała mi na łatwe wejście w temat. Postanowiłem, że zapiszę się na kurs. W końcu najlepsza inwestycja to ta w siebie. Nie myliłem się.

Po przerobieniu kursu zaintrygowany możliwościami Sparka, pythonową zwinnością i javową elegancją Scali w połączeniu z nowym dla mnie programowaniem funkcyjnym, podjąłem decyzję o dalszym rozwoju w stronę Data Engineeringu. Postanowiłem przerwać pasmo niepowodzeń i plątania się po technologiach.

Big Data – “all in”!

Ukończywszy kurs, Marek zaproponował mi udział w programie mentoringowym. Zależało mi na zmianie pracy, spróbowałem. Szeregowaliśmy wiedzę, siedzieliśmy na spotkaniach i podejmowaliśmy po kolei tematy, metodycznie. Jednocześnie, ciągle wysyłałem CV. Miesiąc po zakończeniu kursu dostałem propozycję pracy przy Sparku jako Big Data Support Engineer.

Uważam to za sukces mój, jak i Marka, bo bez uszeregowanej wiedzy przekazanej w dobry sposób i przygotowania pod względem technicznym do wykonywania tej pracy prawdopodobnie nie byłoby tak łatwo. Albo co gorsza, znowu bym się pogubił.

Dlatego, z pełnym przekonaniem, jeżeli się zastanawiasz czy mentoring to dobry pomysł, to uwierz mi, że jest. Nieważne na jakim poziomie zaawansowania, warto mieć opatrzność drugiej osoby, zwłaszcza z doświadczeniem.

Aktualnie, wraz z drugim uczestnikiem programu mentoringowego realizujemy projekt wykorzystujący realne dane (które sami pozyskujemy i przechowujemy :)) w środowisku okołoprodukcyjnym. Wykorzystujemy techniki, sposoby wytwarzania oprogramowania oraz standardy projektowe takie, jakie znajdziesz w realnym produkcyjnym środowisku. Oczywiście, głównym fundamentem jest Scala oraz Spark.

Pracuję również nad swoim blogiem technologicznym, w którym będę opisywać napotykane problemy, obserwacje oraz wnioski i mam nadzieję, że skończę to w niedalekiej przyszłości. 🙂

Zwieńczając to wszystko, bardzo się cieszę, że postawiłem na Fundament Sparka i Program Mentoringowy RDF – mocny kickstart dla kariery w danych.


A teraz czas na “Słowo od Mentora” 😉

Rafał od samego początku wykazywał OGROMNY zapał, był niezwykle pracowity i metodyczny. Bez tego nawet oferta podana na tacy nic by nie zdziałała;-).

Gratuluję! I… jestem dumny:-).

UWAGA! Jeśli Ciebie również interesuje mentoring…

Po prostu napisz na marek.czuma@riotechdatafactory.com.

Ułożymy razem plan i ruszymy z działaniem.

Akurat pojawiło się kilka wolnych miejsc, więc nie czekaj;-)

W poniższym wideo mówię ciut więcej na temat mentoringu. Jeśli masz pytania – po prostu do mnie napisz.

Pamiętaj! Zawsze jesteś mile widziany/a

“Fundament Apache Spark” już dostępny! Jak wygląda pierwszy polski kurs o Sparku? [Wideo]

“Fundament Apache Spark” już dostępny! Jak wygląda pierwszy polski kurs o Sparku? [Wideo]

Z przyjemnością chcę ogłosić, że… pierwszy kurs autorstwa Riotech Data Factory… jest już dostępny! To “Fundament Apache Spark” i dzięki niemu poznasz podstawy tej technologii.

Chciałbym opisać coś więcej, natomiast najlepiej chyba będzie, jak zobaczysz  sam/a;-).

Przygotowałem specjalne wideo, na którym pokazuję od wejścia na stronę co zobaczysz po dokonaniu zakupu.

Całość tego jak wygląda kurs “od środka” zaczyna się ok 12 minuty;-).

Zobacz jak wygląda pierwszy kurs online o Apache Spark

Na stronę kursową przejdziesz klikając w ten link

Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)

 

Loading
Boże Narodzenie w liczbach – jacy jesteśmy na święta? (Big Data Po Polsku) [Audio]

Boże Narodzenie w liczbach – jacy jesteśmy na święta? (Big Data Po Polsku) [Audio]

Czas na dziesiąty odcinek podcastu Big Data Po Polsku! Pierwszy kamień milowy za nami;-)

Ile wydamy na święta? Kto jest bardziej oszczędny? Ile % Polaków spodziewa się prezentów? Dziś odcinek o polskich świętach Bożego Narodzenia! Proszę, oceń ten odcinek i podaj go dalej;-). Nowy odcinek co drugą środę. Zostań na dłużej!

Odcinek(9) – jak zmieniamy się jako społeczeństwo?

Gdzie znajdziesz ten odcinek?

Podcast znajdziesz w kilku miejscach. Linki będą sukcesywnie dochodzić.

  1. Spotify
  2. YouTube
  3. Podbean
  4. Tutaj!
  5. Apple podcast (niebawem)
  6. Google Podcast

    Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)

     

    Loading

 

Społeczeństwo danych – jak zmieniają nas technologie XXI w? (Big Data Po Polsku) [Audio]

Społeczeństwo danych – jak zmieniają nas technologie XXI w? (Big Data Po Polsku) [Audio]

Zmieniają nas nie do poznania. Zmieniają nasze podejście do rodziny, związku, pracy. Zmieniają nawet nasze poczucie wartości. Mowa oczywiście o Technologiach opartych na danych.

Czy idziemy w stronę zagłady? Czy jest aż tak źle? A może są jakieś monstrualnie pozytywne aspekty tych przemian? 

Proszę, oceń ten odcinek i podaj go dalej;-)

Odcinek(8) – jak zmieniamy się jako społeczeństwo?

Gdzie znajdziesz ten odcinek?

Podcast znajdziesz w kilku miejscach. Linki będą sukcesywnie dochodzić.

  1. Spotify
  2. YouTube
  3. Podbean
  4. Tutaj!
  5. Apple podcast (niebawem)
  6. Google Podcast

    Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)

     

    Loading
Jak wygląda praca Inżyniera Big Data? [wideo]

Jak wygląda praca Inżyniera Big Data? [wideo]

Pierwsze takie wideo! Nie technicznie, nie odcinek podcastu. Dzisiaj po prostu o tym jak się pracuje w branży Big Data:-). Kim jest Inżynier Big Data? Co to jest Big Data? Jakie są plusy i minusy branży? Jak wyglądają projekty? Co trzeba umieć na start?

Co musisz wiedzieć o pracy Inżyniera Big Data?

Zachęcam do subskrypcji kanału na YouTube!

Dzięki temu nie przegapisz żadnego wideo z serii jesiennej!

Wideo obejrzysz tutaj:

Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)

 

Loading
Jak zostać ekspertem? (Big Data Po Polsku) [Audio]

Jak zostać ekspertem? (Big Data Po Polsku) [Audio]

Kim jest prawdziwy ekspert? PO CO się wysilać, żeby zostawać ekspertem? I wreszcie – jak to dokładnie zrobić w Big Data? Kilka słów o moim podejściu, o konkretnych sposobach zdobywania umiejętności oraz przepis na rozwój.
Proszę, oceń ten odcinek i podaj go dalej;-)

Odcinek(7) – o byciu ekspertem Big Data (i nie tylko!)

Gdzie znajdziesz ten odcinek?

Podcast znajdziesz w kilku miejscach. Linki będą sukcesywnie dochodzić.

  1. Spotify
  2. YouTube
  3. Podbean
  4. Tutaj!
  5. Apple podcast (niebawem)
  6. Google Podcast

    Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)

     

    Loading
Nie zaczynaj od chmury! O przewagach rozwiązań on-premise. (Big Data Po Polsku) [Audio]

Nie zaczynaj od chmury! O przewagach rozwiązań on-premise. (Big Data Po Polsku) [Audio]

Wszystko idzie do clouda! Naprawdę? Dzisiaj odcinek, w którym staję w obronie rozwiązań on-premise. Zaczniemy od tego co to jest cloud i on-premise. Pomyślimy nad przewagami własnej infrastruktury w kontekście biznesowym i technicznym.
Proszę, oceń ten odcinek i podaj go dalej;-)

Odcinek (6) – Zalety on-premise

Gdzie znajdziesz ten odcinek?

Podcast znajdziesz w kilku miejscach. Linki będą sukcesywnie dochodzić.

  1. Spotify
  2. YouTube
  3. Podbean
  4. Tutaj!
  5. Apple podcast (niebawem)
  6. Google Podcast (niebawem)

    Przypominam jeszcze, jeśli nie jesteś członkiem newslettera, po zaciągnięciu się na nasz okręt dostajesz na wejściu prawie 140 stron ebooka o Big Data! Nie zwlekaj;-)

     

    Loading
Z “wiedzy tajemnej” robimy “wiedzę użyteczną” – czyli jak kursanci oceniają szkolenia Big Data w RDF?

Z “wiedzy tajemnej” robimy “wiedzę użyteczną” – czyli jak kursanci oceniają szkolenia Big Data w RDF?

Niezależnie od samopoczucia, ego i tego co myślimy o sobie sami – końcem końców, najważniejsze jest to, jaki jest obiektywny finał naszej pracy. Jeśli chodzi o szkolenia Big Data, to uważam, że “finał” składa się z dwóch czynników:

  • Co kursanci uważają o szkoleniu
  • Jak kursanci radzą sobie po szkoleniu w “prawdziwym życiu”

Z niektórymi utrzymuję kontakt do dzisiaj. Czasami bliski, czasami bardzo sporadyczny. Ostatnio poprosiłem niektórych z nich, czy mogą podzielić się opiniami na temat szkoleń, które dostali w RDF. Co prawda opinie ciągle spływają, jednak już teraz chcę się podzielić pierwszymi kilkoma.

To tylko niektóre z nich. Całą listę znajdziesz pod tym linkiem.

Przepis na sukces w szkoleniach Big Data? Solidne przygotowanie to podstawa…

“Szkolenie przygotowane i przeprowadzone bardzo sprawnie i profesjonalnie. Doskonałe wyważenie teorii i praktyki co pozwoliło praktycznie natychmiast utrwalić nowo zdobytą, niełatwą, wiedzę. Zadania praktyczne niebanalne {dla początkujących} wymagające nie tylko prostego zastosowania wiedzy teoretycznej, ale także samodzielnego rozwiązywania problemów, co zachęca, po ukończenia zadania, do dalszej pracy nad właśnie rozpoczętym “projektem”. Całość spinają doskonałe przygotowanie środowiska oraz wysoka wiedza i, co nie mniej ważne, znakomita umiejętność jej przekazania przez prowadzącego który z “wiedzy tajemnej” robi “wiedzę użyteczną”. Jedno z najlepszych szkoleń w jakich brałem udział.

Dariusz Zygmunt-Broda
Big Data Engineer

“Zdecydowanie rekomenduję szkolenia z zakresu Big Data prowadzone przez firmę Riotech Data Factory. Prowadzący posiadają duże doświadczenie i obszerną wiedzę, którą w sposób profesjonalny i przystępny przekazują uczestnikom. Podczas przygotowania i realizacji szkoleń kadra wykazała się profesjonalizmem zarówno, jeśli chodzi o zakres merytoryczny, przystępność przekazywanej wiedzy, jak i jakość dostarczonych materiałów.

Piotr Lipiński
Big Data Engineer

…ale pasja i zaangażowanie jest niemniej ważne;-)

“Miałem okazję uczestniczyć w kilkudniowych warsztatach poświęconych oprogramowaniu Apache Spark prowadzonych przez Marka. Jego ogromna wiedza i pasja pozwoliły mi lepiej poznać świat technologii Big Data. Marek w przystępny sposób opowiedział, na czym polega rozproszone przetwarzanie danych, a następnie – jak działa i do czego służy Spark. Solidne podstawy teoretyczne posłużyły jako punkt wyjścia do zmierzenia się z zadaniami praktycznymi o różnym poziomie zaawansowania. Część zadań wykonywana była lokalnie, a część na klastrze obliczeniowym w chmurze. Na zajęciach znalazł się czas zarówno na pracę indywidualną, jak i wspólne rozwiązywanie problemów. Marek cały czas służył radą i z dużym zaangażowaniem odpowiadał na wszystkie nurtujące mnie pytania. Warsztaty były fascynujące i co najważniejsze pozwoliły mi na rozpoczęcie samodzielnej pracy ze Sparkiem.”
Wojtek Kazanecki
Big Data Engineer
“Kilka miesięcy temu brałam udział w szkoleniu na temat Big Data wraz z Markiem jako prowadzącym szkolenie. Był to intensywny, ale dobrze wykorzystany czas, który przygotował mnie do pracy w roli Big Data Developera. W trakcie szkolenie położony jest nacisk nie tylko na wiedze teoretyczna, ale także na część praktyczna, dzięki czemu przyswajanie wiedzy jest szybsze i skuteczniejsze. Sam Marek jest świetnym nauczycielem i prowadzącym — ciekawie opowiada o temacie, ma wiedzę, a także potrafi ją w efektywny sposób przekazać. Właściwy człowiek na właściwym miejscu :)!
Justyna Replin
Big Data Engineer

Dołącz do naszej społeczności!

Zdobywanie wiedzy nie musi być nudne. Wręcz przeciwnie – z natury jest fascynujące! Jeśli masz podobne zdanie i chcesz poznawać Big Data, czas najwyższy zapisać się do newsletera RDF. Na start dostaniesz… prawie 140 stron wiedzy w postaci ebooka.

Z pewnością spodoba Ci się także podcast “Big Data Po Polsku”, w którym uczę się świata przez pryzmat danych.

Na koniec – zachęcam do zajrzenia na kanał YouTube. Znajdziesz tam treści i techniczne i biznesowe!

 

Loading