Jak wygląda klaster Big Data, na którym uczą się kursanci? [Wideo]

Jak wygląda klaster Big Data, na którym uczą się kursanci? [Wideo]

Po miesiącach materiałów (wideo i artykułów) technicznych, chciałbym uchylić rąbka “tajemnicy” dotyczącej szkoleń RDF. Konkretnie, na wideo opowiadam (i pokazuję) dość szczegółowo jaka jest infrastruktura technologiczna na której szkolą się kursanci RDF.

Klaster RDF do szkoleń – czyli na czym pracują kursanci?

Poniżej wklejam wideo i zapraszam do subskrybowania kanału RDF na YouTube;-)

Zapraszam na nasz profil LinkedIn oraz do newslettera;-).

UWAGA! Pierwszy polski ebook o Big Data już dostępny! Zapisz się na listę newslettera i podążaj “Szlakiem Big Data”. Więcej tutaj.

 

Loading
Czas na nowy newsletter Big Data!

Czas na nowy newsletter Big Data!

Od samego początku budowy RDFu wiem, że chcę komunikować się z zainteresowanymi za pomocą emaili. Przyjdzie taki czas, że będę robił to na naszym wspólnym portalu Big Datowym;-). Póki co jednak zostają emaile w ramach newslettera. Dzieje się tak z dwóch powodów, o których za chwilę. Od samego początku myślałem poważnie nad konkretną koncepcją newslettera. Jako że jednak wolę działać niż czekać na idealny punkt, po prostu pisałem. Teraz czas to zmienić. Weź jakąś pyszną latte i porozmawiajmy chwilę na temat tego jak będzie wyglądał newsletter RDF;-).

Czemu piszę newsletter?

Najlpierw ułóżmy sobie. Po co w ogóle newsletter? Zapewniam, że nie dlatego, że “wszedzie jest Panie, no musi być”. Nie musi. Chociaż z tego co słyszałem od speców marketingowych – warto (sam w marketingu jestem cienki jak leszcz, ale im wierzę).

Jeśli jednak jesteś po lekturze artykułu o dezinformacji w mediach społecznościowych (link nr 1 na dole), to mniej więcej wiesz jak one działają. I wiesz, że to że mnie obserwujesz, ja wrzucę dzisiaj o 9:00 post, a ty wejdziesz o 9:05, wcale nie oznacza, że taki post dostaniesz. Profil firmowy RDF obserwuje 120 osób. Gdy wstawiam post – po kilku dniach (6) dociera do około 20 osób. To oznacza, że jeśli wyświetlałoby tylko obserwującym, docierałoby jedynie do ok 17% z nich.

Gdyby. Bo wiemy, że raczej dociera także do ludzi poza tym gronem. To oznacza, że mój post dotarł zapewne zaledwie do kilku procent osób, które sobie tego życzyły!

Być może byłoby inaczej, gdybym napisał post stricte partyjny lub w innym gorącym temacie. Po pierwsze jednak – ciężko napisać post emocjonujący i gorący pozostając w ramach Big Data. Po drugie – nie mam zamiaru tego robić, bo nie widzę w tym wartości. Widzę jedynie antywartość dzielenia i ogłupiania odbiorców. A definitywnie nie o to mi chodzi;-). Technologia ma pomagać budować lepszy świat, nie gorszy.

Chcę więc mieć bezpośredni kontakt do Ciebie, jeśli tego sobie życzysz. To czy przeczytasz, Twoja rzecz. Nie każdy email Cię zainteresuje. ALE! Musisz mieć taką możliwość, jeśli chcesz być w kontakcie. To po prostu kwestia uczciwości:-).

Druga rzecz jest taka, że skrzynki pocztowe są znacznie lepiej skonstruowane niż portale. Czytając mój email – zwykle dłuższy;-) – nie mam “kolorowej alternatywy”. Chodzi mi tu o memy, filmiki i inne kolorowe, krzykliwe posty w otoczeniu. Jestem Ja i Ty. Czy to nie wspaniałe?

Newsletter dotychczas. Liczby i format.

Członkowie newslettera mieli dostęp do kolejnych etapów tworzenia pierwszego polskiego ebooka o Big Data.

Na początku po prostu pisałem. Do tej pory – udało mi się zgromadzić niewielką, ale fantastyczną grupkę osób. To (w chwili pisania tego artykułu) dokładnie 61 osób (realnie zgromadzone w ostatnich kilku miesiącach). Co ważne – to osoby praktycznie w 100% pozyskane bezpłatnie. Co jeszcze ważniejsze – zwykle każdy email czyta między 40 a 50% osób (czasami nawet więcej). To naprawdę fantastyczne statystyki. Wiem, bo robiłem to już kiedyś w zupełnie innej działce i bywało różnie;-). Co więcej – zdarza się, że dostaje emaile zwrotne. To zawsze miód na moje serce!

Tak czy inaczej – zawsze dawałem wartość. Oczywiście najbardziej podstawowa to aktualizacje. Zawsze na świeżo wiedziałeś/aś co nowego na blogu.

Ci którzy byli ze mną już jakiś czas – mieli dostęp do kolejnych etapów tworzenia ebooka “Szlakiem Big Data” (link nr 2 na dole). I mogli sami zgłaszać uwagi!

Obecnie, gdy tworzę podcast – najwięcej “od kuchni” zdradzam właśnie w newsletterze. (swoją drogą – dzisiaj udostępniam odc. nr 0. Tak, zgadłeś/aś – dla członków newslettera).

Czasami dzieliłem się tym jak wygląda moja robota, jakie są moje przemyślenia. Zawsze jednak było to mocno “co mi ślina na język przyniesie”. Teraz chciałbym to odrobinę ustrukturyzować, żebyś wiedział/a czego się spodziewać:-).

Nowy newsletter Big Datowy. Co zyskasz dołączając?

Czas zebrać w kupę rzeczy, które będę wysyłał. Tfu! Dzięki którym będziemy się komunikować;-). Naprawdę, po każdym emailu siedzę niczym nastolatka niecierpliwie oczekująca na pierwszą randkę, odświeżając pocztę i sprawdzając, czy odpisałeś/aś. Nie ma nic lepszego niż kontakt. Możemy wspólnie stworzyć coś fantastycznego;-).

Z czego będzie się składał newsletter:

  1. Ebook – chcemy zbudować społeczność Big Data? Zacznijmy od naprawdę mocnego wprowadzenia do branży. Totalnie za darmo. Dostaniesz to w emailu po rejestracji oraz w każdym późniejszym emailu na dole. (Więcej dowiesz się w linku nr 2 na dole artykułu)
  2. Emaile – raz w tygodniu. Nie chcę się zobowiązywać;-) Ale zapewne będzie to środa lub czwartek, jako że we wtorek lub środę będę publikował podcast. Co możesz znaleźć w ramach systematycznych emaili?
    • Temat przewodni – jeśli to nowa inicjatywa, super, będziesz wiedzieć pierwszy/a. Jeśli chcę się czymś podzielić osobistym (spokojnie, na tle Big Datowym;-)) – napiszę tutaj. Z czasem pewnie to statystyki dotyczące bloga, wiedza tajemna i inne fajne rzeczy niedostępne publicznie.
    • Sekcja techniczna – Ponieważ chcę także odsłaniać kolejne aspekty technologiczne, będę tu pisał krótko o technologiach lub ich konkretnych zagwozdkach. Postaram się napisać tak, żeby dało się w kilku/nastu zdaniach zawrzeć coś, co będzie wartościowe.
    • [Przyszłościowo] Sekcja szkoleniowa – ponieważ RDF to firma szkoleniowa, chciałbym podrzucać też konkretne wskazówki dotyczące tego jak się uczyć – szczególnie w kontekście technologicznym. Póki co muszę sobie to lepiej ułożyć, ale z pewnością w końcu do tego dojdzie;-)
  3. Możliwość wpływania na treści – jeśli tylko chcesz żebym zrobił materiał, masz możliwość napisania, a ja na 99% zrobię to. Oczywiście musi trzymać się w ramach. No i nie obiecuję kiedy, natomiast raczej dość priorytetowo;-). Wystarczy, że odpiszesz na email, zaczniemy rozmawiać i już! Tyczy się to zarówno kwestii technicznych, biznesowych, szkoleniowych. Tekst, audio lub wideo.
  4. Zniżki – Chociaż obecnie RDF to przede wszystkim szkolenia dla firm, niebawem pojawią się opcje także dla klientów idywidualnych. Głównie kursy online;-). Nie tylko dowiesz się o tym pierwszy/a, ale także będziesz miał/a możliwość tańszego zakupu.
  5. Materiały ekskluzywne – czyli materiały jedynie dla osób, które są zapisane na newsletter. Czy to podcast, czy wideo, czy artykuł – będą powstawały materiały jedynie dla społeczności. Chętny/a? Zapraszam!

To kupa roboty, jednak mam nadzieję, że da Ci tak dużo wartości jak tylko to możliwe;-).

Zapisz się już teraz:

 

Loading

Mimo wszystko – bądź z nami w mediach społecznościowych;-)

Chociaż nie jestem fanem tego jak działają media społecznościowe, nie zamierzam się na nie obrażać. Dlatego zapraszam już teraz – dołącz jako obserwujący na LinkedIn czy YouTube. Szczególnie w tym drugim medium, dopiero raczkujemy i potrzebuję “głosów”;-). Dawaj reakcje, komentarze, udostępnienia – wszystko, co pozwoli wbić się materiałom Big Datowym do głównego nurtu, pośród gorące dyskusje polityczno-społeczne:-).

  1. LinkedIn.
  2. YouTube

UWAGA! Pierwszy polski ebook o Big Data już dostępny! Zapisz się na listę newslettera i podążaj “Szlakiem Big Data”. Więcej tutaj.

 

Loading

A teraz linki które pojawiły się w tekście:

  1. Artykuł o dezinformacji w mediach społecznościowych.
  2. Ebook “Szlakiem Big Data”.
Jak ogarnąć architekturę systemu Big Data? [Wideo] [Big Data w podróży]

Jak ogarnąć architekturę systemu Big Data? [Wideo] [Big Data w podróży]

Ostatnio zdałem sobie sprawę, że kiedy jadę autem, marnuję czas. Zamiast słuchać bzdetów w aucie, mogę po prostu podzielić się z Wami czymś sensownym. No więc pierwszy eksperyment! Zapiąłem smartfona i popłynąłem z tematem “jak ogarnąć architekturę systemu Big Data?”. Wszak często to naprawdę złożone tematy, trudna i skomplikowana architektura. Wiele komponentów i mechanizmów.

Architektura Big Data to oczywiście złożona kwestia i nie da się w 8 minut wyczerpać tematu. Mam jednak nadzieję, że wyjaśniłem sensownie to o co mi chodziło;-).

Jak ugryźć złożoność? Architektura Big Data z lotu ptaka

Poniżej wklejam wideo i zapraszam do subskrybowania kanału RDF na YouTube;-)

 

Zapraszam na nasz profil LinkedIn oraz do newslettera;-).

UWAGA! Pierwszy polski ebook o Big Data już dostępny! Zapisz się na listę newslettera i podążaj “Szlakiem Big Data”. Więcej tutaj.

 

Loading
Jak uruchomić Spark na klastrze? [wideo]

Jak uruchomić Spark na klastrze? [wideo]

Kolejne wideo poradnikowe dotyczy Sparka. Pokazuję, w jaki sposób od A do Z uruchomić aplikację (job) sparkową na serwerze (na klastrze). Kod jest już gotowy i znajdziesz go w repozytorium;-). Jeśli zechcesz zagłębić się w kwestie techniczne, tutaj znajdziesz artykuł na temat spark submit.

How to index data in Solr with Apache Spark?

Poniżej wklejam wideo i zapraszam do subskrybowania kanału RDF na YouTube;-)

Dodatkowe materiały

Kod który widzisz na wideo jest dostępny publicznie. Znajdziesz go na otwartym repozytorium RDF – a dokładniej tutaj;-). Powodzenia!

Zapraszam na nasz profil LinkedIn oraz do newslettera;-).

UWAGA! Pierwszy polski ebook o Big Data już dostępny! Zapisz się na listę newslettera i podążaj “Szlakiem Big Data”. Więcej tutaj.

 

 

Loading
Jak zaindeksować dane w Solr z użyciem Spark? [wideo]

Jak zaindeksować dane w Solr z użyciem Spark? [wideo]

Po EKSTREMALNYM sukcesie poradnikowego wideo na temat tworzenia kolekcji w Solr (prawie 50 wyświetleń w pierwszych dniach. SZOK. Hollywood stuka puka do drzwi!), pociągnąłem temat. Ciągle poradnikowo, ciągle Solr. Tym razem jednak zaindeksujemy więcej dokumentów niż tradycyjnie robi się to w tutorialach. I zrobimy to znacznie przyjemniej, niż robi się to zwykle w tutorialach;-). Czas zaprzęgnąć Sparka do indeksacji danych w Solr!

How to index data in Solr with Apache Spark?

Poniżej wklejam wideo i zapraszam do subskrybowania kanału RDF na YouTube;-)

Dodatkowe materiały

Kod który widzisz na wideo jest dostępny publicznie. Znajdziesz go na otwartym repozytorium RDF – a dokładniej tutaj;-). Powodzenia!

Zapraszam na nasz profil LinkedIn oraz do newslettera;-).

UWAGA! Pierwszy polski ebook o Big Data już dostępny! Zapisz się na listę newslettera i podążaj “Szlakiem Big Data”. Więcej tutaj.

 

 

Loading
Jak szybko utworzyć kolekcję w Solr? [wideo]

Jak szybko utworzyć kolekcję w Solr? [wideo]

Iii stało się! Wreszcie przemogłem się (i znalazłem czas w szkoleniowym młynie) żeby nagrać pierwsze RDFowe wideo. Liczę że od tej pory sukcesywnie będziemy przesuwali się także i na tym polu;-). Treści wideo będą przeróżne, ale na pierwszy ogień idzie typowy poradnik “how-to”.

Inauguracje weźmie na siebie Solr, a konkretnie tworzenie kolekcji. Jest to temat zdecydowanie nieprosty, a przede wszystkim – nieintuicyjny do bólu. Szczególnie, jeśli ktoś wie jak to się robi w Elastic Search. Smacznego!

How to create solr collection?

Poniżej wklejam wideo i zapraszam do subskrybowania kanału RDF na YouTube;-)

Dodatkowe materiały

Obiecałem  uproszczony configset. Proszę bardzo! Pobierzesz go pod tym linkiem;-). Powodzenia!

Zapraszam na nasz profil LinkedIn oraz do newslettera;-).

UWAGA! Pierwszy polski ebook o Big Data już dostępny! Zapisz się na listę newslettera i podążaj “Szlakiem Big Data”. Więcej tutaj.

 

 

Loading
Rządowa Megabaza – krok w dobrą stronę?

Rządowa Megabaza – krok w dobrą stronę?

Plany Rządu dotyczące utworzenia Megabazy danych o obywatelach spotkały się z głębokim sceptycyzmem. To dobrze. Czy nie jest to jednak krok w dobrą stronę? Co zrobić, żeby takim był? O tym w dzisiejszym artykule. Zapraszam od razu do subskrypcji oraz obserwowania na LinkedIn;-). Poprzedni materiał dotyczył cięższych tematów (wojna). Dziś więc nieco odsapniemy. Zatem kubek z naszym caffe latte w dłoń – i ruszamy!

Rządowa Megabaza – Wątpliwości

Dla tych, którzy nie wiedzą dokładnie o jaką “Megabazę” chodzi – odsyłam do artykułu w którym to wyjaśniałem. W skrócie jednak: Rząd planuje połączyć wiele z dostępnych już rejestrów gromadzących dane o obywatelach (np. GUS, dane medyczne itd.). W efekcie powstałaby Megabaza, która zawierałaby ogromną ilość danych o każdym z nas. Warto nadmienić, że – w teorii – baza ta służyłaby jedynie do dokonywania analiz, a dane byłyby pseudonimizowane.

No właśnie – w teorii. Problem polega jednak na tym, że wokół Megabazy powstało dość dużo niejasności. Od razu też zgromadziło się jeszcze więcej głosów sprzeciwu wobec powstania takiego rejestru. Chodziło o kilka kluczowych problemów:

  1. Megabaza ma powstać na drodze zwykłego rozporządzenia. Mowa tu także o informacjach chronionych tajemnicą – lekarską czy statystyczną.
  2. Co prawda cele mają być stricte analityczne, jednak są one określone na tyle ogólnie, że istnieje tu pole do nadużyć.
  3. Dane w przeprowadzonych analizach mają być pseudonimizowane. To jest zaś proces odwracalny (np. szyfrowanie symetryczne z kluczem tajnym). Jeśli będę miał klucz – dojdę do tego kto, gdzie, jak i z kim.
  4. Wojciech Klicki z Fundacji Panoptykon mówi:

    “Przy tak dużym zakresie danych, dostrzegam kolosalny potencjał do nadużyć. Nie ma żadnych gwarancji, że baza ta nie zostanie wykorzystana do celów stricte politycznych, wręcz do inżynierii politycznej”

Czy taki diabeł straszny?

Postarajmy się wygasić na chwilę emocje związane ze słowem “inwigilacja”. Zastanówmy się na chłodno, czy faktycznie pomysł jest tak straszny jak mówią o nim krytycy. Swoją drogą – warto też zwrócić uwagę kim są owi krytycy. To m.in. przytaczana wyżej w cytacie Fundacja Panoptykon. Jest to organizacja aktywnie lobbująca za skrajnym ograniczaniem możliwości polskich służb specjalnych. Opowiada się za daleko idącym ograniczaniem Państwa w dostępie do jakichkolwiek informacji dotyczących obywateli. Warto więc mieć na uwadze, że nie jest to głos wyważony. Spróbujmy jednak spojrzeć na argumenty, które opowiadają się po stronie budowania tego typu systemów.

Przede wszystkim – wbrew klikbajtowym tytułom, ciężko mówić tu o “orwellu” czy o “kolejnym poziomie inwigilacji”. Nie dajemy państwu dostępu do żadnych nowych danych. Dajemy jedynie możliwość, aby dane te były w sposób wygodny i skuteczny zintegrowane. Sytuacja w której przekazujemy jakiejś organizacji różne dane i boimy się, że będzie miała do nich odpowiedni dostęp przypomina domaganie się, aby organizacja ta działała w sposób niewydolny. Jeśli zgodziliśmy sie już, że któreś z informacji o nas samych mają trafiać do państwowych rejestrów – to one już tam są. Nie starajmy się znaleźć sposobów, aby nie mogły być one użyte. Prędzej domagajmy się ograniczenia w zbieraniu (jeśli ma to sens).

Co możemy zyskać, stawiając na Big Data w administracji publicznej?

Kolejna sprawa – nieco bardziej ogólna. Gromadzenie dużych danych zgodnie z najlepszymi branżowymi przykładami może dać nam ogromne atuty. W tym konkretnym przypadku mówimy o możliwościach analitycznych. Jednym z przykładów (choć w nieco innej dziedzinie) może być wykrywanie podejrzanych firm, które warto skontrolować. Nie tylko pozwoliłoby to zawczasu zlokalizować oszustów. Być może znacznie ważniejszą zaletą byłoby to, że bardzo mocno ograniczylibyśmy liczbę kontroli w firmach, które są uczciwe.

Inny przykład opisywałem w tym artykule. Przy odpowiednich danych będziemy w stanie bardzo dokładnie obliczać inflację. Nie tylko ogólnokrajową. Także regionalną, a nawet… osobistą, dla każdego.z osobna. To byłby ruch, który dałby niewyobrażalne wcześniej możliwości kształtowania polityki gospodarczej rządu. Czasy mamy takie, że wszystko zmienia się w tempie błyskawicy. Nie możemy nie myśleć o stworzeniu narzędzi reagowania na te zmiany. Narzędzia te muszą dysponować (bardzo dużymi) danymi i opierać się na nich.

Stawiając na Big Data możemy znacznie lepiej zrozumieć społeczeństwo. Możemy usprawnić naszą administrację – tyczy się to także szeroko pojętej “cyfryzacji”. Wszyscy widzimy to na przykładzie e-recept. Pamiętajmy, że cyfryzacja musi wiązać się z gromadzeniem tych danych, a następnie zarządzaniem nimi. Albo będziemy uciekać od tego, albo możemy zabrać się do sprawy “na serio”.

Budowanie kompetencji Big Data w administracji może przynieść także gigantyczne przewagi w obszarze służb specjalnych – wywiadowczych i kontrwywiadowczych. Widzimy za naszą wschodnią granicą jak tego typu możliwości sprawdzają się w przypadku wojny. Nas szczególnie powinny tego typu tematy interesować. Nie możemy chować głowy w piasek i zachowywać się, jakbyśmy byli Szwajcarią czy Niderlandami.

Czy naprawdę jest tak kolorowo?

Powyżej przytoczyłem kilka słów wsparcia wobec tego typu projektów. Niestety, trzeba też jasno powiedzieć, że wiążą się one z wieloma wątpliwościami. Są to między innymi właśnie wymienione powyżej nadużycia ze strony władz. Te niejednokrotnie pokazały, że służby specjalne mogą być wykorzystywane bardzo instrumentalnie, w interesie partyjnym. I to niezależnie od barw partyjnych.

Aby zmniejszyć tego typu spekulacje i obawy, władza powinna zacząć kierować się najwyższymi standardami i możliwie wysoką przejrzystością. Tam gdzie to możliwe – trzeba wskazać jak dokładnie odbywać się będzie zbieranie i analiza danych. Tam, gdzie tego typu operacje powinny pozostać za kurtyną, warto wyjaśnić obywatelom dlaczego konkretnie tak powinno być.

Z całą pewnością za takimi zmianami musi iść najlepsza możliwa komunikacja. Nie propaganda, ale zrozumiała komunikacja, po brzegi wypełniona szacunkiem do obywatela i jego inteligencji oraz potrzeby prywatności. Niestety, dzisiaj bardzo często jest dokładnie odwrotnie. Na potrzeby zbudowania nowoczesnej, opartej o dane administracji, warto rozmawiać i edukować także opozycję, zapraszać ekspertów. To musi wyjść poza nasze plemienne walki.

Inną sprawą jest bezpieczeństwo. Dane zgromadzone w jednym miejscu łatwiej jest wykraść. Oczywiście skorumpowany i zepsuty agent kontrwywiadu dojdzie do dowolnych danych niezależnie od tego gdzie są przechowywane. Warto jednak – idąc w stronę cyfryzacji i “ubigdatowienia” naszej administracji – położyć nacisk na trzymanie się najwyższych standardów bezpieczeństwa i zdobycie najlepszych fachowców. Lub współprace z nimi. Pamiętajmy, że drogą do lepszej administracji może (i moim zdaniem powinna) być współpraca z sektorem prywatnym.

Podsumowanie – rachunek zysków i strat

Słowem kończącym chciałbym powiedzieć o jednej rzeczy. Żyjemy w epoce, która jest naznaczona przez dwie rzeczy: dane oraz brak prywatności. Nie możemy od tego uciekać. Możemy co najwyżej wykorzystać to gdzie jesteśmy do zbudowania swojej przewagi.

Czy lepiej jest, gdy zachowujemy prywatność? Oczywiście. A czy lepiej jest mieć państwo, które jest w stanie sprawnie reagować na zmieniające się warunki i które zapewnia nam wysoką jakość usług? Także oczywiście.

Nie musimy wybierać. Możemy szukać rozwiązania, które jest “pomiędzy”. Z góry decydując się, że spora część naszej prywatności ucieknie. Bez hipokryzji przyznając także, że sami oddajemy ją w ręce wielkich korporacji. Kiedy umówimy się, że częściowo oddamy ją także w ręce państwa – oczekując w zamian efektów – możemy wyjść przed peleton. Jesteśmy w stanie, musimy tylko zbudować odpowiednie kompetencje i zachować spokój oraz wzajemną życzliwość, gdy budujemy wspólne miejsce do życia.

Zapraszam na nasz profil LinkedIn oraz do newslettera;-).

UWAGA! Już niedługo ukaże się pierwszy polski ebook o Big Data. Całkowicie za darmo dla subskrybentów bloga RDF. Zapisując się na newsletter TERAZ – masz niepowtarzalną okazję dostawać kolejne wersje książki i zgłaszać swoje poprawki, a nawet stać się jednym z autorów. Więcej tutaj.

 

Loading
Rząd planuje zbudowanie mega-bazy danych o obywatelach. Jakie mogą być skutki i… jak to zrobić?

Rząd planuje zbudowanie mega-bazy danych o obywatelach. Jakie mogą być skutki i… jak to zrobić?

“Zwykłym rozporządzeniem planuje się w Polsce utworzenie gigantycznej bazy danych, łączącej informacje z prawie wszystkich możliwych rejestrów” pisze “Dziennik Gazeta Prawna”. Tytuł: “Orwell po polsku. Rząd pracuje nad megabazą. >>Potencjał do nadużyć<<“. W tym artykule opiszę jak taka “Megabaza” miałaby być zbudowana. W kolejnych – czy to dobry pomysł oraz… jak można by taki system zbudować. Zapraszam!

Czym miałaby być “megabaza”?

Żyjemy w świecie gospodarki cyfrowej. Nie tylko firmy, ale i administracja państwowa zbierają od nas dane. Te są bardziej lub mniej wrażliwe. W formie elektronicznej państwo ma więc dostęp do numeru dowodu osobistego, danych medycznych, informacji  związanych ze stanem cywilnym i wielu, wielu innych. W tym momencie jednak istnieje ogromna liczba “małych” baz danych. Każda z nich odpowiada za inne informacje o nas i podlega innym jednostkom (np. jedne ministerstwu finansów, inne zdrowia itd.).

Rodzi to wiele problemów ze sprawnością funkcjonowania państwa oraz możliwościami wykorzystania danych, które ono posiada. Możemy intuicyjnie denerwować się, że w wielu miejscach podajemy te same dane, albo że jedna instytucja nie może funkcjonować sprawnie i skutecznie tylko dlatego, że nie ma dostępu do danych zgromadzonych przez inną. Trochę tak, jakby w małej firmie pomagającej w poprawie zdrowia rehabilitanci od kręgosłupa nie mieli dostępu do danych pacjentów od działu dietetyków.

Częściowo tego typu problemy ma zmienić planowana Megabaza (powinniśmy ująć w cudzysłów, ale nazwijmy już ją tak na potrzeby artykułu). Będzie ona spajać informacje z bardzo wielu państwowych miejsc w ramach jednego ogromnego centrum danych.

Czym NIE BĘDZIE Megabaza?

Warto jednak podkreślić, że planowana Megabaza nie będzie tym, o czym możemy w pierwszym momencie pomyśleć. Nie będzie miejscem szybkiego dostępu do połączonych danych każdego z nas. Możemy sobie wyobrazić sytuację, w której urzędnik ministerstwa finansów z ciekawości sprawdzi nie tylko dane firmy, w której będzie przeprowadzał kontrolę, ale i wyznanie, dane dotyczące dzieci i żony Prezesa owej firmy. Tego nie będzie.

Oto dlaczego. Megabaza nie będzie służyła do szybkiego przeglądania naszych danych. Będzie to raczej miejsce zbiorczego przechowywania informacji w celach analiz. Jak pisze portal DGP:

“Założenie jest takie, że dany podmiot publiczny zgłasza potrzebę przeprowadzenia konkretnych analiz. Minister cyfryzacji występuje do administratorów odpowiednich rejestrów, a ci przekazują mu dane po pseudonimizacji. W teorii po przeprowadzeniu analiz mają być one wykasowane. “

Czym różni się pseudonimizacja od anonimizacji?

 

Pada powyżej pojęcie “pseudonimizacji”. Podobnie brzmiąca jest również “anonimizacja”. Czym różnią się od siebie i dlaczego to istotne w tym kontekście? Sprawa jest bardzo prosta:

  • Anonimizacja to proces “ukrycia” danych w taki sposób, żeby nie dało się ich w żaden sposób poznać, ani do nich wrócić. Można anonimizować dane nie tylko przy pomocy nowoczesnych technik i technologii. “Analogowym” sposobem anonimizacji może być na przykład zakreślenie czarnym markerem nazwiska (a potem wykonanie kserokopii, aby zlikwidować prześwitywanie). Jeśli mówimy o cyfrowym zapisie, można usunąć konkretne dane, wylosować dowolny ciąg znaków lub – jeśli musimy zachować możliwość odwołania się do tych samych rekordów, można wykorzystać funkcję skrótu w określony sposób.
  • Pseudonimizacja – proces, który ma na celu to samo co anonimizacja, czyli ukrycie konkretnych danych (np. PESEL). Różni się jednak tą zasadniczą rzeczą, że pseudonimizację można odwrócić. Najbardziej popularnym sposobem jest po prostu szyfrowanie danych z kluczem tajnym (np. szyfrem AES). Dzięki temu, mając klucz, zawsze możemy dane odszyfrować.

Jedną z rzeczy które można spotkać szeroko w Internecie jest wymienienie funkcji skrótu jako metody pseudonimizacji. Być może się mylę (jeśli tak – nawróć mnie w komentarzu!), ale nie mogę się z tym zgodzić. Funkcje skrótu dążą do tego żeby nie dało się na podstawie konkretnego skrótu dotrzeć do pierwotnej wiadomości. Spełniają więc wymogi anonimizacji, nie pseudonimizacji. Oczywiście temat nie jest jednoznaczny i są określone warunki w których można by “odgadnąć” zahashowane wartości, ale sam mechanizm moim zdaniem jest anonimizacyjny.

W naszej Megabazie wyniki analiz mają być pseudonimizowane i w takiej formie wysyłane do zlecających analizę. To właśnie wzbudza pewne obawy ekspertów oraz aktywistów działających na rzecz przejrzystości działań władzy.

“Na dodatek nie wiem, jak wyglądać ma pseudonimizacja danych, która jest przecież procesem odwracalnym. Jeśli dane mają służyć do celów analitycznych, to oczywiste jest dla mnie, że powinny przechodzić proces pełnej anonimizacji “

Powyższy cytat pochodzi z wypowiedzi Wojciecha Klickiego z Fundacji Panoptykon. Tutaj wyjątkowo muszę się zgodzić. Chociaż fundacja Panoptykon jest organizacją kontrowersyjną, działającą wielokrotnie w sposób, który uważam za co najmniej niewłaściwy, w tym przypadku obawy są uzasadnione. Być może pseudonimizacja ma sens. Jeśli jednak tak jest, władze powinny dołożyć starań, aby to uzasadnić.

Z jakich źródeł będzie czerpać Megabaza?

Napisaliśmy już trochę na temat tego czym będzie a czym nie będzie Megabaza. Z jakich jednak dokładnie źródeł będzie korzystać? Poniżej lista instytucji:

  1. Rejestr PESEL
  2. Krajowa Ewidencja Podatników
  3. Rejestr Stanu Cywilnego
  4. Rejestr Dowodów Osobistych
  5. Rejestr Ministra Właściwego do Spraw Pracy
  6. Rejestr ZUS i KRUS
  7. Rejestry dotyczące świadczeń rodzinnych czy osób uprawnionych do alimentów
  8. Rejestry GUS
  9. Rejestry NFZ
  10. System informacji o ochronie zdrowia
  11. Rejestry oświatowe

Podsumowanie

Słowem podsumowania: Rząd planuje zbudowanie wielkiej Megabazy, która będzie spajać wiele zbiorów dostępnych dla administracji. Warto podkreślić jednak, że nie będzie to baza, do której każdy urzędnik będzie miał szybki, swobodny dostęp. Będzie to repozytorium, które ma usprawnić państwową analitykę.

W tym artykule przyjrzeliśmy się pobieżnie temu czym ma być rządowa Megabaza i z jakich źródeł ma się składać. W kolejnym artykule opiszę obawy oraz szanse, które dałoby zbudowanie tego typu systemu. Na samym końcu – rozrysuję jak można takie repozytorium skonstruować.

Ciekawy? Ciekawa? Zapraszam na profil LinkedIn oraz do newslettera;-).

UWAGA! Już niedługo ukaże się pierwszy polski ebook o Big Data. Całkowicie za darmo dla subskrybentów bloga RDF. Zapisując się na newsletter TERAZ – masz niepowtarzalną okazję dostawać kolejne wersje książki i zgłaszać swoje poprawki, a nawet stać się jednym z autorów. Więcej tutaj.

 

Loading
Czym jest Project Maven armii amerykańskiej? (Big Data at War)

Czym jest Project Maven armii amerykańskiej? (Big Data at War)

USA kojarzą nam się z potęgą zarówno technologiczną jak i militarną. Nie bez powodu. To tutaj zrodziła się branża Big Data. To ten kraj ma najpotężniejszą armię na świecie. Pytanie jednak, czy zawsze te dwie rzeczy idą w parze? Dziś poznamy jeden z przykładów tego jak Big Data i sztuczna inteligencja (AI) wykorzystywane są w amerykańskiej armii. Bierzmy więc kubek żołnierskiej czarnej kawy w dłoń i przejdźmy przez drugi odcinek z serii “Big Data na wojnie”!

Drony, dominacja USA i… absurdy rodem z parodii państwowości

Hegemonia zobowiązuje

USA to nie jest “normalny kraj”. Nie, nie mam na myśli tego, że to stan umysłu. Nie należy jednak porównywać jakiegokolwiek państwa do Amerykanów z jednego prostego powodu: Stany Zjednoczone rządzą światem. To imperium, które ustawiło pod siebie cały glob. Teraz co prawda ulega to pewnym zmianom, ale to rozmowa na inny artykuł. Na innym blogu;-).

Skutkuje to nie tylko profitami, ale i zobowiązaniami. Podstawowym zobowiązaniem jest to, że Amerykanie muszą militarnie “obstawiać” cały świat. Oznacza to nie tylko obecność sił zbrojnych na określonych terenach, ale także stały monitoring miejsc, w których Hegemon ma swoje interesy. W siłach zbrojnych Stanów Zjednoczonych służy ok. 1.3 mln żołnierzy nie licząc rezerwistów oraz Gwardii Narodowej (mniej więcej odpowiednik naszych Wojsko Obrony Terytorialnej). Każdy żołnierz kosztuje swoje i jego wyszkolenie oraz – co jasne – życie, jest na wagę złota.

Z tego powodu wojska amerykańskie od dłuższego czasu prowadzą wiele bardzo intensywnych prac badawczych (których skutkiem jest m.in. Internet) mających na celu rozwój nowoczesnych technologii czy robotyzację pola walki. Jednym ze skutków takich prac są drony. To samoloty bezzałogowe, które nie tylko są tańsze w produkcji od myśliwców i prostsze w użyciu. Co najważniejsze – pilot drona nie jest bezpośrednio narażony, siedzi w ciepłym i przyjemnym zakątku, sterując przez komputer swoją maszyną.

Monitoring najważniejszych miejsc na świecie

To właśnie drony są wykorzystywane do uderzenia z powietrza. Pełnią jednak także inną rolę – zwiadowczą. Dzięki nim można “podglądać” w bardzo solidnej jakości wiele miejsc na Ziemi. Poza stałym monitoringiem, zapisy z latających czujników stanowią znakomity materiał do analizy wstecznej. Jeśli dochodzi do jakiegoś ataku terrorystycznego czy podejrzanych ruchów, można bez problemu odszukać nagranie z tamtego momentu i przeanalizować minuta po minucie, sekunda po sekundzie.

Także Polska może pochwalić się sukcesami na rynku dronowym. Widoczny na zdjęciu FlyEye to polski samolot bezzałogowy służący celom zwiadowczym. Niezwykle popularny na wojnie za naszą wschodnią granicą – w służbie armii Ukraińskiej oczywiście.

Pentagon wydał dziesiątki miliardów dolarów na tego typu systemu obserwacji. Dzięki temu, jeśli ktokolwiek podłożył bombę, można po prostu przewinąć wideo do tyłu i sprawdzić kto to był, dokąd poszedł itd. Tego typu system obserwacji to fascynujący pomysł, dający gigantyczne możliwości analityczne. Skoro więc mamy całą flotę dronów uzbrojonych w czujniki, nadających do nas obrazy wideo, co jest oczywistym kolejnym krokiem? Warto wskazać, że pojedyncze drony z tego typu czujnikami gromadzą wiele terabajtów danych… dziennie.

W związku z powyższym nie będzie chyba zbyt kontrowersyjne stwierdzenie, że oczywistym jest zbudowanie systemu który tego typu dane kataloguje i automatycznie analizuje prawda?

Biurokratyczne absurdy także za oceanem

Otóż, jak się okazuje – niekoniecznie. Żaden inteligentny system nie powstał. Co prawda był pewien storage, w którym umieszczano nagrane wideo. Znakomita większość jednak… nigdy nie była przeanalizowana. Jak to się mogło stać? Otóż, rozwiązaniem według DoD (Departamentu Obrony – ang. Department of Defense) wcale nie było zbudowanie inteligentnego systemu analitycznego, ale… utworzenie odpowiednio dużego sztabu ludzi. Ludzi, którzy siedzieli przez 24h na dobę (praca zmianowa), patrzyli w ekran i… liczyli. Liczyli auta, ludzi, budynki itd. Następnie sprawnie tego typu dane przepisywali do… excela lub powerpointa i wysyłali dalej.

Brzmi absurdalnie? Takie właśnie jest! I dzieje się to w Stanach Zjednoczonych Ameryki. Nie w małej firmie pod Białymstokiem, ale w najpotężniejszym kraju na świecie, o ugruntowanej państwowości

Project Maven, czyli jak wynieść organizację na wyższy poziom

Aby powyższy stan rzeczy zakończyć, podjęta została decyzja o zbudowaniu “Project Maven”. To repozytorium, które miało stać się systemem do inteligentnej analizy materiałów z czujników bezzałogowców. To jednak nie jest jedyna rola Mavena. Projekt ten miał w zamierzeniu stać się przyczółkiem dla metodycznego wykorzystania Big Data oraz sztucznej inteligencji (AI) w armii amerykańskiej. Chociaż USA są synonimem postępu i nowoczesności, w wojsku ciągle wiele elementów działało jak podczas II Wojny Światowej. Wpuszczenie systemów przetwarzania dużych danych miało to zmienić.

Maven skupia się na analizie danych wideo z różnych platform dronowych:

  • Scan Eagle
  • MQ-1C Gray Eagle
  • MQ-9 Reaper.

Podstawowym celem Projektu miała być automatyczna identyfikacja obiektów rejestrowanych przez kamery Dronów. Co warte podkreślenia – w tworzenie całego systemu zaangażowane były podmioty prywatne. Jedną z firm tworzących repozytorium było Google. Ciężko o bardziej trafną decyzję – to od tej firmy zaczęła się “prawdziwa Big Data” i spod jej skrzydeł wyszły niezwykle istotne technologie, będące właściwie fundamentem branży. W związku z ujawnieniem wewnątrz Google współpracy z Pentagonem, wybuchł protest pracowników. Ci rządali wycofania się z procesu, tłumacząc to niezgodnością z linią etyczną firmy i ich hasłem przewodnim “Don’t be evil” (nie bądź zły). To jednak zupełnie na marginesie.

Projekt Maven miał rozwiązać jeszcze jeden problem: biurokrację. Dotychczas jedynie ludzkie oko (i oczywiście mózg) były wyznacznikami tego czy cel widziany przez bezzałogowiec jest wrogiem, czy nie. W związku z tragicznymi pomyłkami, procedury dotyczące możliwości podjęcia ostrzału bardzo mocno spowolniły czas między obserwacją, a ogniem. Znakomicie wyuczone mechanizmy mają na celu przyspieszenie całego procesu.

Jak mógłby wyglądać “Project Maven”?

Na końcu proponuję zabawę. Skoro jesteśmy na blogu stricte poświęconym Big Data – spróbujmy zastanowić się jak mogłoby wyglądać Maven pod kątem technicznym, a przynajmniej architektonicznym – w najbardziej ogólnym rozumieniu tego słowa. Nie próbujemy domyślić się jak było to robione w Pentagonie, ale jak analogiczny system mógłby być zbudowany u nas, na potrzeby Wojska Polskiego.

Nasza specyfika jest oczywiście zupełnie inna. Nie musimy obserwować połowy świata. Załóżmy jednak, że chcemy bardzo precyzyjnie monitorować całą granicę wschodnią i otrzymywać alerty, jeśli coś niewłaściwego się tam dzieje. Ponieważ nasza granica jest dość długa, przygotujemy system który automatycznie powiadamia o podejrzanych ruchach oraz pozwala przeszukiwać informacje o aktualnym stanie oraz stanie z określonego momentu w historii.

Przykładowy slajd wysłany do zatwierdzenia w procesie uczenia oryginalnego projektu Maven.

Zastanówmy się więc jak to może wyglądać.

  1. Storage – tak nazwijmy ogólną część, w której składujemy dane.
  2. Moduł do uczenia
  3. System alertów
  4. Moduł do analizy

Jaka infrastruktura?

Zacznijmy od bardzo ważnej kwestii! Konkretnie od powiedzenia sobie wprost: taki system absolutnie nie może być zbudowany z wykorzystaniem rozwiązań chmurowych. Być może to kontrowersyjna teza, ale obecnie najwięksi dostawcy to firmy zagraniczne. W przypadku tego typu produktu podstawową cechą musi być bezpieczeństwo. Nie owijając w bawełnę – nie tylko bezpieczeństwo przed włamaniami rosyjskich hakerów. To są dane, które po prostu nie mogą być zależne od zagranicznej infrastruktury (nawet jeśli jest położona na terenie Polski). Rozumiem, że wiele osób może mieć odmienne zdanie, szanuję to, ale się z nim nie zgadzam. Zakładam więc budowę systemu na własnej infrastrukturze (on-premise).

Nic nie stoi jednak na przeszkodzie, abyś Ty rozpisał/a podobną architekturę dla rozwiązań chmurowych;-). Napisz i wyślij, a ja z pewnością opublikuję.

Storage

W tym miejscu musimy się zastanowić w jaki sposób składować dane. To tutaj będą trafiać w pierwszym kroku, ale nie tylko. Oczywiście taki moduł może składać się z więcej niż jednej technologii do składowania danych!

Co dokładnie moglibyśmy tutaj umieścić? Zacznijmy od pierwszej przestrzeni, gdzie lądować miałyby surowe dane. Proponuję tutaj jedną z dwóch technologii:

  1. HDFS, wraz z resztą technologii hadoopowych
  2. Ozone – czyli object store, który jest (teoretycznie) następcą HDFSa, przy czym pozbawiony jest jego wad. Na temat Ozone napisałem parę artykułów.

W takim miejscu możemy przede wszystkim składować wszystkie możliwe pliki wideo, które będą przesyłane przez drony. Następnie pliki te byłyby odczytywane i zapisywane do którejś bazy danych w formie metadanych (np. jakie obiekty są w jakim momencie nagrania, co to za samolot itd). Może to być HBase (który współgra zarówno z HDFS jak i z Ozone).

Moduł do uczenia

Oczywiście w “naszym Mavenie”  musimy mieć modele, dzięki którym będziemy mogli rozpoznawać konkretne obiekty, ludzi, broń itd. Aby to zrobić, musimy utworzyć moduł uczący. W jego ramach możemy zrobić tak jak w amerykańskim odpowiedniku – najpierw trzeba przejrzeć bardzo bardzo wiele materiałów, a następnie otagować co tam się znajduje, jak to wygląda itd. W kolejnym etapie utworzymy klasyczny zbiór uczący i testowy, a następnie wytrenujemy konkretne modele dzięki uczeniu nadzorowanemu (co możemy zrobić dzięki otagowanym materiałom).

Jakie technologie możemy tutaj zastosować? Możemy pójść w stronę wykorzystania bibliotek pythonowych – i wtedy próbować swoich sił z TensorFlow. Możemy także popracować z Apache Spark ML i deep learning, który oferują na coraz lepszym poziomie jego twórcy.

System Alertów

Następny moduł który powinniśmy omówić to system alertów. Chodzi o to, aby nasi żołnierze z Wojsk Obrony Cyberprzestrzeni nie ślęczeli przed widokami przekazywanymi z każdego z dronów, ale by byli powiadamiani o potencjalnych anomaliach zawczasu przez zautomatyzowany system.

Tutaj moja propozycja jest prosta:

  1. Kafka, na którą trafiają obrazy wideo
  2. Consumer przygotowany przez Spark Structured Streaming, który przetwarza te obrazy z wykorzystaniem wcześniejszych modeli i rozbiera je na części pierwsze (podobnie jak to się dzieje w punkcie pierwszym – Storage). Następnie, w formie lżejszych informacji (metadane) przesyła na kolejny endpoind kafki.
  3. Consumer znów przygotowany przez Spark Structured Streaming, ale nasłuchujący na drugim endpoincie – z metadanymi. Jeśli informacje, które się tam pojawią są podejrzane, wysyłany jest alert do przygotowanej aplikacji, przed którą siedzą nasi żołnierze WOC.

Moduł do analizy

Ostatnim elementem który został nam do ogrania jest moduł do analizy. tutaj pomijamy system streamingowy i niejako zataczamy koło, trafiając do naszego Storage. Z tego miejsca musimy zbudować job, który pozwoli nam sprawnie indeksować dane z bazy danych do technologii full-text search. Oto co proponuję:

  1. Spark, który wyciąga dane z HBase i umieszcza je (być może w odpowiednio okrojonej formie) w Elasticsearch
  2. Elasticsearch, który przechowuje dane.
  3. Kibana, która pozwala nam analizować dane umieszczone w Elasticsearch.

Podsumowanie

Oczywiście powyższe zalecenia to raczej intelektualna zabawa, nie poważna analiza i architektura. Służy jednak pobudzeniu myślenia o tym jak można patrzeć na systemy oraz wskazać, że nie są one poza naszym zasięgiem.

Podsumujmy: Amerykanie także mają swoje miejsca wstydu, które wyglądają jakby były rodem z II Wojny Światowej. Rozwiązaniem części z nich, oraz zalążkiem Big Data w Pentagonie, miał (ma) być “Project Maven” który byłby pewnym repozytorium materiałów dronowych. W jego ramach odbywałoby się uczenie i analiza obiektów widzianych przez bezzałogowce.

Jak pokazałem, my także możemy rozwijać nasze siły zbrojne w kontekście Big Data oraz AI. Mam nadzieję, że tak się dzieje – jednym z symptomów zmian jest utworzenie Wojsk Obrony Cyberprzestrzeni. Oby nie były to puste etaty, bo fachowców mamy w Polsce wspaniałych.

Daj znać w komentarzu jak się podobało. Zapraszam też na profil RDF na LinkedIn oraz do newslettera. Pozostańmy w kontakcie!

UWAGA! Już niedługo ukaże się pierwszy polski ebook o Big Data. Całkowicie za darmo dla subskrybentów bloga RDF. Zapisując się na newsletter TERAZ – masz niepowtarzalną okazję dostawać kolejne wersje książki i zgłaszać swoje poprawki, a nawet stać się jednym z autorów. Więcej tutaj.

 

Loading
Rola danych na wojnie (Big Data at war)

Rola danych na wojnie (Big Data at war)

Końcówka lutego 2022 roku. Rosja atakuje Ukrainę, a jednym z narzędzi rozbrajania przeciwnika jest Buk. Ten samobieżny system kierowanych rakiet ziemia-powietrze skutecznie może wykańczać flotę powietrzną lub bronić wojsko przed rakietami manewrującymi. Na szczęście Ukraina posiada w swoim arsenale tureckie drony Bayraktar. Na publicznie dostępnym wideo widać obraz komputerowego monitora z przekazem real-time lecącego nad rosyjskimi wojskami samolotu bezzałogowego. Sterujący zdalnie żołnierz bez problemu namierza system Buk i wciska przycisk. Po chwili na ekranie widać już tylko unoszące się tumany dymu i pyłu w miejscu uderzenia.

Nie byłoby to możliwe, gdyby nie rozbudowana praca na danych. W tym artykule chciałbym poruszyć problematykę konfliktów międzynarodowych właśnie z punktu widzenia zarządzania danymi i tego jaką rolę one odgrywają w całym zamieszaniu.

Dlaczego warto poznać kształt współczesnych konfliktów?

W tym miejscu był całkiem długawy wstęp. Nie rozwodząc się jednak zbytnio: jako ludzie mieszkający w kraju z takim położeniem, musimy “znać się na wojnie”. Świadomość zagrożenia i zdobywanie wiedzy na temat kształtu współczesnego pola walki nie jest niczym zdrożnym. Przeciwnie – świadczy o dojrzałości. Przygotowując się do walki (w każdy możliwy sposób), zmniejszamy prawdopodobieństwo jej wystąpienia.

Ja (na szczęście) nie jestem ekspertem od geopolityki. Postaram się jednak zbadać i podzielić tym jaką rolę na wojnie pełnią dane, elektronika i wysokie technologie, w tym Big Data. Dzisiejszy artykuł będzie zaledwie zajawką – żeby nie przegapić kolejnych, zapisz się na newsletter;-)

Współczesne pole bitwy wygląda zupełnie inaczej niż 100 lat temu. Nie jest to jednak wojna robotów, jaką możemy znać z filmów czy gier.

Zanim zacznie się wojna…

Działania poniżej progu wojny

Zanim działania przybiorą typowo wojenny, kinetyczny charakter, do gry wchodzą działania “poniżej progu wojny”. Choć nie jest to nic nowego pod słońcem, współcześnie działania zakrojone są na bardzo szeroką skalę i są znacznie prostsze do przeprowadzenia niż kiedyś. Celów jest wiele: od dezintegracji społeczeństwa (jesteśmy podzieleni, nie wiemy także kto jest po jakiej stronie ani gdzie jest prawda) aż po wzbudzenie braku zaufania do państwa i przywódców. Dzieje się to oczywiście na bardzo wielu poziomach – jest wprowadzanie na wysokie stanowiska półinteligentów i ludzi skorumpowanych. Są cyberataki, które podważają zaufanie do skuteczności państwa i wiele, wiele innych.

Media społecznościowe idealnym narzędziem szerzenia dezinformacji

Z naszej perspektywy warto jednak zwrócić uwagę na jeden aspekt – są nim media społecznościowe, które wyglądają, jakby wręcz były zaprojektowane po to, aby prowadzić działania “poniżej progu wojny”, co często upraszczane jest do miana “dezinformacji”. Jest to narzędzie bardzo istotne z samego faktu z jak wieloma informacjami zderzamy się, gdy przewiniemy tablicę. Choć nie analizujemy ich szczegółowo, nasz mózg nie radzi sobie z przyswojeniem takiej ilości informacji. W efekcie tego stara się tą skomplikowaną rzeczywistość bardzo uprościć, co czynu niejako automatycznie.

Zauważmy pewną ciekawą rzecz: wiele z informacji które spotykamy (niezależnie od konkretnego medium) nie pochodzi od autorów wybranych przez nas. Nawet jeśli, to nie są to treści wybrane w jakiś prosty sposób – na przykład chronologicznie.

Jakie treści zatem dostajemy?

  1. Takie, które najprawdopodobniej polubimy (na co wskazują algorytmy uczące się, należące do konkretnego medium)
  2. Te, które wzbudzają największe emocje
  3. Takie, które są popularne
  4. Te, których autorów oznaczyliśmy wprost, że chcemy widzieć każdy ich post.
  5. Treści promowane, których autorzy dość precyzyjnie “wycelowali” swoją treść w nas.

Sposoby szerzenia dezinformacji dzięki konstrukcji mediów społecznościowych

Warto jednak zwrócić uwagę, że niekoniecznie musimy znać wcześniej konta, których posty widzimy. Można więc tak skonstruować przekaz, aby docierał do jak najszerszego odbiorcy i infekował go odpowiednimi treściami. W tym celu budowane są odpowiednie “farmy trolli” – całe złożone społeczności, które nawiązują relacje, dyskutują i udostępniają posty. Dzięki temu określone wypowiedzi są popularne, wychwytywane przez algorytmy i docierają dalej.

Jednoznaczne określenie bota nie jest proste. Analizator Twittera mojego autorstwa uznał za bota… Donalda Trumpa, ówczesnego Prezydenta USA. Stało się tak prawdopodobnie z wielu powodów. Jednym z nich mogła być legendarna właściwie aktywność na Twitterze byłego przywódcy ameryki.

Zbudowanie takich sztucznych kont przeprowadzane jest na wiele sposobów – z różnymi kosztami i różnymi skutkami. Najprostszym sposobem jest zbudowanie farmy botów, czyli automatycznych mechanizmów, które sterują kontami bez ingerencji człowieka. Te najprostsze po prostu masowo podają określone posty, nie mają uzupełnionych profili i generalnie łatwo je poznać. Te bardziej skomplikowane mają zdjęcia, prostą historię a nawet charakter wypowiedzi. Pomiędzy jednymi a drugimi jest oczywiście duże spektrum. Rosja jest państwem, które oficjalnie przyznaje, że ma swoich “etatowych trolli”. Są to ludzie, którzy zarządzają wieloma kontami i w ten sposób budują społeczności znacznie ciężej wykrywane niż zwykłe boty – o ile oczywiście robią to z pewnym kunsztem.

Nie ma w tym artykule miejsca na szerszy opis (będzie osobny artykuł – zapisz się na newsletter poniżej!). Być może najlepszym podsumowaniem będzie: “miej ograniczone zaufanie dla każdego profilu w sieci. Szczególnie jeśli go nie znasz. Nie każdy opiniotwórca ma dobre zamiary”. Pamiętajmy, że media społecznościowe są zbudowane w określony sposób, aby utrzymać naszą uwagę. I to właśnie te mechanizmy wykorzystywane są przez osoby/organizacje, aby szerzyć “za darmo” dezinformację na bardzo wysokim poziomie.

 

Loading

Rozpoznanie (obserwacja)

Drugim ważnym obszarem na współczesnym polu bitwy jest… obserwacja. Tutaj już powoli wkraczamy w “TĄ wojnę”. Przypomnijmy sobie ostatnie miesiące (i szczególnie tygodnie) przed napadem Rosji na Ukrainę. Jak wyglądał ten czas? Media bombardowały nas informacjami na temat tego jak wojska rosyjskie podchodzą pod granicę z Ukrainą. Dowiadywaliśmy się nie tylko gdzie są rozmieszczone, ale także ile ich jest (szacunkowo) oraz co to za siły.

Jednym z “oczu armii” obserwacji są drony obserwacyjne – m.in. Flye Eye konstrukcji i autorstwa polskiej firmy WB.

Rzadko kto zadawał sobie pytanie: jak to możliwe?”. A przecież, jak się chwilę zastanowić, to właśnie możliwości obserwacyjne są dzisiaj (i nie tylko dzisiaj) kluczem do zrozumienia sytuacji. Dzięki temu praktycznie niemożliwy jest atak z zaskoczenia. Żyjemy ze świadomością, że w dowolnym momencie można spojrzeć w każdy punkt na kuli ziemskiej. Jesteśmy do tego przyzwyczajeni, trochę patrząc na to jak na grę komputerową. Nie dzieje się to jednak w żaden magiczny sposób.

To właśnie możliwości obserwacji decydują o tym co i kiedy będziemy widzieli. Możliwości, które dostarczają bardzo materialne maszyny zbierające i przesyłające dane. Warto podkreślić, że możliwości obserwacji, które nie są wcale dostępne dla każdego. I to z kolei daje poważne przewagi lub braki na współczesnym polu walki.

Satelity

Najbardziej podstawowym sposobem zdobywania zdolności obserwacyjnych są satelity. Te poruszają się na orbitach ziemi w celu obserwacji i przekazu sygnałów na żywo. Warto podkreślić ogromną wagę w znaczeniu geopolitycznym – państwa bez tego typu systemów są ślepe, lub zdane na inne państwa. Tymczasem koszt konstelacji nie jest wielki i zamyka się w kilkuset milionach zł (mowa o podstawowej konstelacji dla Polski).

Drony

Drugim elementem obserwacji o jakim warto powiedzieć są drony. Samoloty bezzałogowe wyposażone w systemy czujników, pozwalają zbierać obraz na żywo. W każdym momencie wiele tego typu maszyn na usługach armii amerykańskiej przeczesuje tereny w bardzo wielu zakątkach Ziemi. Warto tu podkreślić, że Amerykanie mają osobny system, którego celem jest przechowywanie i analiza obrazów z kamer. System ten nazywa się “Project Maven” i na jego temat pojawi się osobny artykuł – zapraszam do newslettera!

Stacje nasłuchowe

Ostatnim narzędziem o którym chciałbym wspomnieć są stacje nasłuchowe. Choć znakomita większość informacji jest utajniona, możemy dziś powiedzieć jasno: system inwigilacji Echelon to Big Datowy majstersztyk. Pozwala zbierać i łączyć ze sobą informacje, które normalnie dostępne nie są, takie jak emaile, telefony czy SMSy. Wszystko dzięki rozmieszczonym na kilku kontynentach stacjom nasłuchowym. Całość jest przechowywana i przetwarzana w ramach jednego wielkiego systemu do analizy, przez zespoły analityczne, które pracują bez przerwy. Również i ten temat z pewnością podejmę w ramach serii artykułów. W ramach ciekawostki powiem, że najprawdopodobniej także w Polsce jest jedna stacja nasłuchowa (choć mniejszej rangi) systemu Echelon.

Stacja nasłuchowa w ramach systemu Echelon niedaleko Pine Gap w Australii.

Broń “inteligentna”

Trzeci element, o którym jedynie wspomnimy, to wszelkiego rodzaju broń i systemy “inteligentne”. Być może to truizm, ale współcześnie nie wystrzeliwujemy już kul z armat, niczym w średniowieczu, licząc że dotrą do celu po odpowiednim nadaniu im prędkości, kierunku i zwrotu (choć i współcześnie istnieją oczywiście pociski balistyczne, posiadające paraboliczny tor lotu – to jednak zupełnie inna liga).

Pociski kierowane (broń samonaprowadzająca)

Współczesne pociski samonaprowadzające po wskazaniu celu i wystrzeleniu, samodzielnie namierzają obiekt w który mają trafić, aż do eksplozji (która następuje np. w wyniku uderzenia w obiekt). To trzecia generacja pocisków kierowanych (w pierwszej to człowiek sterował zdalnie pociskiem, aż ten doleciał do celu). Polega na tzw. systemie “strzel i zapomnij” (ang. F&F – Fire and Forget). Żołnierz namierza cel, po czym wystrzeliwuje pocisk. Ten – już bez kontaktu z człowiekiem – samodzielnie dąży do obiektu w który ma uderzyć, nawet jeśli zmienia się jego położenie.

Taką technologią są m.in. polskie zestawy przeciwrakietowe Piorun. Co warto podkreślić – są one uważane przez wielu ekspertów za najlepsze systemy tego typu na świecie. Zestawy te są naszpikowane po brzegi elektroniką. Operator może określić tam między innymi z jakim celem będzie miał pocisk do czynienia (np. helikopter, pocisk itd). Inną ciekawą cechą są dwa podstawowe rodzaje eksplozji, jakie mogą nastąpić. Pierwsza to oczywiście eksplozja po uderzeniu w cel i wbiciu się w środek obiektu. Drugi natomiast pomysł, to wybuch w momencie, w którym pocisk będzie przelatywał w odległości paru metrów obok celu. Taki efekt może być wykorzystany, gdy celem są mniejsze obiekty, jak na przykład pociski.

Warto podkreślić, że zestaw posiada swój własny radar, który działa nawet na odległość 8-10 km. Gdy cel (np. helikopter) wleci w zasięg radaru, można go namierzyć. Kiedy przemieści się tak, aby być w zasięgu pocisku – ten wystrzeli automatycznie pędząc ku obiektowi. Poniżej zestrzelenie helikoptera rosyjskiego przez siły Ukraińskie – prawdopodobnie właśnie polskimi “Piorunami”.

https://www.youtube.com/watch?v=x237HLRzDH8

 

Myśliwce, drony

Ostatnim elementem o którym chcę powiedzieć są siły powietrzne, a konkretnie myśliwce i drony. Samoloty bojowe dawno temu przestały być jedynie latającymi maszynami z pilotem, który jedynie steruje maszyną (w prostym rozumieniu tego zwrotu). Najnowocześniejsze myśliwce, F-35, to tak naprawdę latające komputery. Na temat elektroniki F-35 można napisać osobny materiał. Powiedzmy tutaj jednak, że same samoloty są elementem większego systemu. I to właśnie jako element tego systemu są nadzwyczaj niebezpieczne. Podkreślmy jeden fakt: sam hełm dla pilota F-35 kosztuje ok. 400 000 $. Dzieje się tak, ponieważ to nie tylko samo nakrycie głowy, ale przenośny system komputerowy, który drastycznie zwiększa możliwości pilota tego myśliwca. Tak naprawdę to prawdziwa rozszerzona rzeczywistość. Dzięki wielu czujnikom i kamerom zamontowanym w wielu miejscach samolotu, pilot może dzięki wyświetlaczowi hełmu “oderwać się od maszyny”. Chodzi o to, że obracając głową, nie widzi ścian myśliwca, ale przestrzeń wokół siebie. Patrząc na dół, nie widzi nóg, ale przestrzeń pod myśliwcem. Zupełnie, jakby sam leciał w powietrzu! Oczywiście na ekranie ma dostępne także wszelkie dane, które potrzebne są do monitorowania i sterowania maszyną.

No dobrze, to wszystko pilot. Są też jednak samoloty… bez pilotów. Mowa o dronach, czyli samolotach bezzałogowych. I tutaj mamy tak naprawdę ogromny rynek maszyn wszelkiego rodzaju. Od zwykłych cywilnych dronów, które nakręcą nam sympatyczne wideo, po potężne i zabójcze maszyny. Co ciekawe, Polska także ma pewne osiągnięcia na tym polu. “Oczami” naszej armii są bezzałogowce Flye Eye (widoczne na drugim zdjęciu, na górze artykułu). Są to maszyny, które służą do obserwacji. Flye Eye są bardzo lekkie i żeby wystartować, wystarczy… ręka żołnierza. Nie trzeba żadnych maszyn ani torów startowych.

Podczas agresji Rosji na Ukrainę to właśnie drony były jedną z bardziej pożądanych technologii. Powyżej można obejrzeć wideo, w którym Ukraińscy żołnierze zdalnie sterują samolotem niszcząc system Buk – jeden z poważniejszych atutów wojsk rosyjskich. Takie samoloty są o tyle wygodne, że oczywiście nie niosą ze sobą ryzyka śmierci pilotów, znacznie łatwiej przeszkolić załogę (niż do myśliwców), a ich cena także znacznie odbiega od innych samolotów załogowych.

Przesłanie na koniec

Mam nadzieję, że artykuł Ci się spodobał. Pamiętajmy, że to początek. W dalszych materiałach chciałbym szerzej opowiedzieć o dezinformacji, amerykańskim systemie Maven czy sieci nasłuchowej Echelon. Wojna to zawsze straszna rzecz, ale przygotowując się do niej, zawsze zmniejszamy ryzyko jej wystąpienia. Ze swojej strony dołożę cegiełkę w kontekście poznania współczesnego pola bitwy od strony technologicznej. Jeśli chcesz pozostać w kontakcie – zostaw maila, a ja raz na tydzień napiszę co w Big Datowym świecie słychać. Polub też nasz profil na LinkedIn.

UWAGA! Już niedługo ukaże się pierwszy polski ebook o Big Data. Całkowicie za darmo dla subskrybentów bloga RDF. Zapisując się na newsletter TERAZ – masz niepowtarzalną okazję dostawać kolejne wersje książki i zgłaszać swoje poprawki, a nawet stać się jednym z autorów. Więcej tutaj.

 

Loading