Nauka rozwija się w błyskawicznym tempie. To samo można powiedzieć o technologii. Massachusetts Institute of Technology opublikował na łamach swojego portalu listę 10 najważniejszych trendów bieżącego roku łączących oba te światy. Każdy z nich ma potencjał, by zmienić rzeczywistość, w jakiej przyjdzie nam żyć za 5, 10, może 15 lat.
Przyzwyczailiśmy się już do tego, że w świecie nowych technologii dzieje się naprawdę dużo, jednak nie wszystkie wynalazki zasługują na uwagę.
Mimo wielkiego szumu, jaki towarzyszył pojawieniu się na rynku drukarek 3D, maszyny tego typu znalazły się w posiadaniu przede wszystkim pasjonatów nowych technologii czy projektantów, którzy korzystają z nich do tworzenia prototypów. Problematyczny było również samo drukowanie, gdyż jedynym materiałem, który sprawdzał się w tym procesie był plastik. Drukowanie przy wykorzystaniu innych materiałów, a w szczególności metalu, było drogie i kosztowne. Sytuacja uległa jednak zmianie, a druk w metalu stał się opłacalny i niebawem może mieć spory wpływ m.in. na branżę produkcyjną.
Zarodki utworzone wyłącznie z komórek macierzystych — bez jaj płodowych i spermy? Naukowcy z uniwersytetu w Cambridge udowodnili, że jest to możliwe, tworząc w ten sposób realistycznie wyglądające zarodki myszy. — Wiedzieliśmy, że komórki macierzyste w swoim potężnym potencjale są magiczne. Nie zdawaliśmy sobie jednak sprawy, że mogą się w tak piękny sposób same organizować — powiedziała podczas jednego z wywiadów Magdalena Zernicka¬-Goetz, przewodnicząca zespołu badawczego. Mimo, że z powstałych w ramach projektu embrionów prawdopodobnie nigdy nie narodzą się myszy, naukowcy uznali odkrycie za przełom, który może otworzyć drogę do sztucznego rozmnażania ssaków.
Inteligentne miasta
Internet Rzeczy to bez wątpienia jeden z najgorętszych trendów ostatnich lat.
Sztuczna inteligencja dla każdego
Sztuczna inteligencja, wcześniej zdominowana przez największe firmy technologiczne i wąsko wyspecjalizowane startupy, za sprawą chmury obliczeniowej ma szanse wejść do powszechnego użytku, usprawniając działalność firm z sektora MŚP. W segmencie rozwiązań IT dla biznesu, wykorzystujących możliwości sztucznej inteligencji obecny jest m.in. Google ze swoim TensorFlow— biblioteką sztucznej inteligencji z licencją open-source. Można z niej bezpłatnie korzystać do tworzenia oprogramowania opartego o algorytmy uczenia maszynowego. Swój udział zaznacza tutaj także Microsoft, zaś o krok naprzód wychodzi Oracle implementujący funkcje sztucznej inteligencji w swoich usługach chmurowych czy oferujący w pełni autonomiczną, a więc “samoobsługową” bazę danych.
Warto wspomnieć, że szeroka dostępność funkcjonalności sztucznej inteligencji bardzo wiele zawdzięczać będzie właśnie implementacji rozwiązań SI w usługach chmury obliczeniowej, które systematycznie zyskują na popularności. Dzięki temu “mirażowi” firmy otrzymają dużo bardziej zaawansowane i inteligentne narzędzia wspierające operacje w poszczególnych obszarach. —
Maszyny z wyobraźnią
Sztuczna inteligencja, doskonała w wykrywaniu podobieństw cierpi na pewne ograniczenia — brakuje jej wyobraźni, potrzebnej do samodzielnego tworzenia. Oznacza to, że takie algorytmy z łatwością wyodrębniają obrazy, na których np. znajduje się rowerzysta, jednak same nie potrafią takiego obrazu stworzyć. Ma się to zmienić za sprawą pewnego odkrycia, które miało miejsce na Uniwersytecie w Montrealu. Stworzona przez Iana Goodfellow koncepcja, znana jako generative adversarial network sprawiła, że SI po raz pierwszy zyskała swoistą wyobraźnię. Jak do tego doszło? W dużym uproszeniu GAN polega na rywalizacji dwóch sieci neuronowych w grze przypominającej kotka i myszkę. Obie sieci uczą się na podstawie tej samej bazy danych. Jedna z nich przyjmuje rolę generatora i na podstawie widzianych wcześniej obrazów tworzy podobne. Druga, zwana dyskryminatorem, sprawdza, czy wygenerowany obraz jest wygenerowaną przez maszynę wadliwą kopią. W ten sposób maszyna odrzuci grafikę przykładowego rowerzysty posiadającego dodatkową kończynę lub oczy z tyłu głowy. Z czasem komputer uzbrojony GAN staje się tak dobry w tworzeniu obrazów, jak algorytmy uczenia maszynowego w ich odróżnianiu. W testach okazało się, że technologia doskonale radzi sobie z naśladowaniem ludzkiej mowy, jak również z tworzeniem fotorealistycznych obrazów. Wygenerowane przez SI materiały charakteryzowały się takim realizmem, że odróżnienie sztucznie wygenerowanych próbek od prawdziwych przykładów było co najmniej problematyczne.
Rozumienie danych i głosu w trybie rzeczywistym
Wszyscy pamiętamy sceny z kultowych filmów science fiction, w których bohaterowie za sprawą ekstrawaganckiej technologii nie tylko rozumieli obce języki, lecz nawet z łatwością się w nich komunikowali. Rok 2018 przybliża nas do tej rzeczywistości, a wszystko za sprawą opracowywanych urządzeń do tłumaczenia języka mówionego w czasie rzeczywistym. Za pośrednictwem połączonej ze smartfonem słuchawki możliwe będzie natychmiastowe tłumaczenie sentencji wypowiadanych w innym języku przez rozmówcę na pożądany przez użytkownika. Pomimo kilku obaw o doskonałość tego rozwiązania, które zapewne sprawdzą się w pierwszej fazie jego rozwoju, to bardzo obiecująca technologia, bazująca na technice NLP (Natural Language Processing) czyli przetwarzaniu języka naturalnego.
Koniec z emisją CO2
Paliwa kopalne są jednym podstawowych źródeł energii i wszystko wskazuje na to, że w najbliższych latach tej pozycji nie utracą. Ich przetwarzanie nie jest obojętne dla środowiska i wiąże się z wysoką emisją dwutlenku węglą. W Houston w stanie Texas powstaje właśnie Net Power — 50-megawatowa elektrownia. Ma ona wytwarzać energię co najmniej tak tanio, jak standardowe instalacje gazu ziemnego, wychwytując cały dwutlenek węgla uwalniany w tym procesie. Jeśli projekt okaże się sukcesem, elektrownie gazowe mają szansę zastąpić te atomowe, których utrzymanie wiąże się z ogromnymi kosztami. Sposobem na generowanie oszczędności przy wytwarzaniu energii z gazu ziemnego ma być sprzedaż pozyskane w ten sposób dwutlenku węgla. Popyt na CO2 mają również kreować producenci cementu i plastiku.
Pełna anonimowość w sieci
W czasach, w których w Internecie można znaleźć na nasz temat niemal wszystko, prawdziwa prywatność to wręcz święty Graal współczesności. Wzrastająca ilość naszych interakcji realizowanych poprzez aplikacje, serwisy społecznościowe, a także zwiększona liczba kontaktów z różnymi użytkownikami znacznie utrudniają pozostanie całkowicie niewidocznym. W najbliższym czasie ma się to jednak zmienić, a całkowita prywatność w sieci może stać się faktem. Informatycy cały czas pracują bowiem nad sieciowym narzędziem, które pozwoli jednej ze stron udowodnić drugiej, że dysponuje pewną informacją, bez jej ujawniania. Zastosowanie tej technologii w procesach uwierzytelniania np. bankach ma zapewnić najwyższy od lat poziom anonimowości i obniżyć ryzyko wypłynięcia wrażliwych danych osobowych. Narzędzie ma bazować na algorytmie kryptograficznym, zwanym dowodem z wiedzą zerową (zero-knowledge proofs). Naukowcy pracują nad tą metodą już od kilkunastu lat, ale zainteresowanie nią eksplodowało dopiero w zeszłym roku dzięki rosnącej popularności kryptowalut. Do tej pory większość bitcoinowych transakcji cechowała pełna transparentność – w dowolnym eksploratorze bloków można zobaczyć strony transakcji i ich wartości. Całkowitą prywatność swoich klientom zaoferowała jednak firma Zcash, która do szyfrowania swoich transakcji używa właśnie algorytmu zero-knowledge proofs, czyli tak zwanego zk-SNARK. Ten niezwykle skuteczny zaawansowany system szyfrujący praktycznie uniemożliwia znalezienie nadawcy i odbiorcy. To może być ważny krok naprzód w ochronie wrażliwych informacji i rozwoju technologii służących do przechowywania i przetwarzania danych, m.in. chmur obliczeniowych. Zastosowanie algorytmu zero-knowledge proofs w urządzeniach sieciowych może stać się jednym z głównych rozwiązań bezpieczeństwa, szczególnie w regulowanych branżach, takich jak finanse czy służba zdrowia. Chcąc zagwarantować możliwie najwyższy poziom usług, coraz przychylniejszym okiem patrzą one m.in. na operatorów data center, oferujących nowoczesne i kompleksowe usługi IT z chmurą obliczeniową na czele.
Genetyczne wróżby
Pewnego dnia po porodzie dzieci otrzymywać będą raport DNA zawierający przewidywania dotyczące szans na atak serca lub zachorowanie na raka, uzależnienie od tytoniu czy posiadanie ponadprzeciętnej inteligencji. Tworzenie takich raportów stało się możliwe dzięki przeprowadzonym na szeroką skalę badaniom genetycznym. W niektóre z nich zaangażowanych było miliony ludzi. Okazuje się, że najczęstsze choroby i wiele cech czy zachowań, w tym inteligencja, są wynikiem nie jednego lub kilku genów, ale wielu genów działających wspólnie. Korzystając z gigantycznych zbiorów danych naukowcy tworzą coś, co nazywają „polygenic risk scores” (ang. poligenową oceną ryzyka). Mimo, że dzięki takim badaniom otrzymuje się rachunek prawdopodobieństwa, a nie diagnozę, mogą one być niezmiernie przydatne w rozwoju medycyny. Firmy farmaceutyczne mogą wykorzystywać wyniki testów do prowadzenia badań klinicznych leków prewencyjnych np. na chorobę Alzheimera czy dolegliwości sercowe. Wybierając ochotników, którzy mają większe szanse na zachorowanie, będzie można dokładniej sprawdzać działanie leków.
Projektowanie cząsteczek
Kwantowe komputery oferować będą niespotykaną dotychczas moc obliczeniową. Naukowcy już dziś szukają dla niej zastosowań. Spośród licznych pomysłów należy zwrócić uwagę na możliwość dokładnego projektowania cząsteczek. Dzięki niemu mamy szansę otrzymać nowe rodzaje białek, dzięki którym powstaną efektywniejsze leki, nowatorskie elektrolity dla bardziej pojemnych baterii, czy związki zmieniające zmieniające światło słoneczne w płynne paliwo. Zaprojektowanie tego typu cząsteczek wykracza poza możliwości klasycznych komputerów. Nawet prosta symulacja zachowanie się elektronów w stosunkowo prostej cząsteczce wiąże się ogromnymi zawiłościami. Dla komputerów kwantowych, które zamiast ciągów zerojedynkowych korzystają z kubitów, takie obliczenia nie stanowią problemu. Udowodnili to niedawno badacze z IBM, którzy wykorzystali siedmio-kubitowy komputer do utworzenia modelu cząsteczki zbudowanej z trzech atomów.
Naukowe spojrzenie na przełomowe odkrycia i innowacyjne rozwiązania technologiczne bywa jak zimny prysznic, studzi emocje i opierając się na popartej głęboką wiedzą analizie, pozwala skupić się na tym, co wartościowe i obiecujące. To coś więcej niż nowinki. Takie analizy bywają niezwykle przydatne dla biznesu — uważa Piotr Rojek z DSR, firmy specjalizującej się w zaawansowanych rozwiązaniach IT dla produkcji.Metalowy druk 3D
Mimo wielkiego szumu, jaki towarzyszył pojawieniu się na rynku drukarek 3D, maszyny tego typu znalazły się w posiadaniu przede wszystkim pasjonatów nowych technologii czy projektantów, którzy korzystają z nich do tworzenia prototypów. Problematyczny było również samo drukowanie, gdyż jedynym materiałem, który sprawdzał się w tym procesie był plastik. Drukowanie przy wykorzystaniu innych materiałów, a w szczególności metalu, było drogie i kosztowne. Sytuacja uległa jednak zmianie, a druk w metalu stał się opłacalny i niebawem może mieć spory wpływ m.in. na branżę produkcyjną.
Podczas gdy cyfryzacja przemysłu przekłada się na rosnącą efektywność fabryk i coraz większe oszczędności, druk w metalu może zaburzyć działające obecnie łańcuchy dostaw. Zamawianie części i trzymanie ich w magazynach zostanie ograniczone do niezbędnego minimum, podczas gdy większość potrzebnych komponentów, przynajmniej na poziomie prototypowania lub dla krótkich serii, drukowanych będzie na miejscu — przewiduje dyrektor zarządzający w DSR SA. Druk w metalu może również zrewolucjonizować branżę budowlaną, umożliwiając błyskawiczne tworzenie szkieletów na placu budowy.Sztuczne embriony
Zarodki utworzone wyłącznie z komórek macierzystych — bez jaj płodowych i spermy? Naukowcy z uniwersytetu w Cambridge udowodnili, że jest to możliwe, tworząc w ten sposób realistycznie wyglądające zarodki myszy. — Wiedzieliśmy, że komórki macierzyste w swoim potężnym potencjale są magiczne. Nie zdawaliśmy sobie jednak sprawy, że mogą się w tak piękny sposób same organizować — powiedziała podczas jednego z wywiadów Magdalena Zernicka¬-Goetz, przewodnicząca zespołu badawczego. Mimo, że z powstałych w ramach projektu embrionów prawdopodobnie nigdy nie narodzą się myszy, naukowcy uznali odkrycie za przełom, który może otworzyć drogę do sztucznego rozmnażania ssaków.
Inteligentne miasta
Internet Rzeczy to bez wątpienia jeden z najgorętszych trendów ostatnich lat.
Technologia Internetu Rzeczy ma bardzo szerokie zastosowanie. Jako pierwszy zaczął z nich korzystać przemysł, tworząc inteligentne fabryki. Teraz IoT wkracza w nowe obszary i zmienia je — wyjaśnia Sławomir Kuźniak z firmy BPSC, tworzącej zaawansowane rozwiązania informatyczne.Za sprawą konglomeratu Alphabet, należącego do Google, technologia IoT w 2018 roku wkroczy w przestrzeń miejską. Toronto będzie pierwszym miastem, w którym zaawansowane rozwiązania IT będą wykorzystane na szeroką skalę. Projekt Sidewalk Toronto ma być cyfrową odpowiedzią na największe wyzwanie, przed którymi stają współczesne metropolie; transport, dostęp do mieszkań i zużycie energii. Według planów nadbrzeżna część Toronto Quayside ma być poddana rewitalizacji i zmieni się w zieloną dzielnicę, której infrastruktura ma być oparta o technologię Internetu Rzeczy. Cała strefa ma być ze sobą połączona i wymieniać się informacjami, by ekosystem miejski działał sprawnie. Transport publiczny ma być podstawową formą komunikacji, a energia ma pochodzić z odnawialnych źródeł. Według założeń „inteligentne miasto” ma być stworzone dla ludzi. Technologia ma pomagać w przekształceniu struktury miejskiej w przyjazne środowisko. Nie będzie ona futurystyczne, a zielona i naturalna.
Sztuczna inteligencja dla każdego
Sztuczna inteligencja, wcześniej zdominowana przez największe firmy technologiczne i wąsko wyspecjalizowane startupy, za sprawą chmury obliczeniowej ma szanse wejść do powszechnego użytku, usprawniając działalność firm z sektora MŚP. W segmencie rozwiązań IT dla biznesu, wykorzystujących możliwości sztucznej inteligencji obecny jest m.in. Google ze swoim TensorFlow— biblioteką sztucznej inteligencji z licencją open-source. Można z niej bezpłatnie korzystać do tworzenia oprogramowania opartego o algorytmy uczenia maszynowego. Swój udział zaznacza tutaj także Microsoft, zaś o krok naprzód wychodzi Oracle implementujący funkcje sztucznej inteligencji w swoich usługach chmurowych czy oferujący w pełni autonomiczną, a więc “samoobsługową” bazę danych.
Wszyscy mówią o sztucznej inteligencji, jednak dotychczas niewielu firmom udało się w pełni wykorzystać jej potencjał. Największymi przeciwnościami okazały się brak mocy obliczeniowej oraz przede wszystkim zbyt mała ilość danych. Coraz powszechniejsze korzystanie z chmury obliczeniowej może skutecznie wyeliminować dużą część tych problemów — uważa Piotr Prajsnar, prezes Cloud Technologies - właściciela jednej z wiodących hurtowni danych na świecie, która przy pomocy uczenia maszynowego w czasie rzeczywistym analizuje w chmurze obliczeniowej dane pochodzące z ponad 12 miliardów urządzeń.Informacje tego typu wykorzystywane są m.in. do precyzyjnego targetowania reklamy internetowej.
Warto wspomnieć, że szeroka dostępność funkcjonalności sztucznej inteligencji bardzo wiele zawdzięczać będzie właśnie implementacji rozwiązań SI w usługach chmury obliczeniowej, które systematycznie zyskują na popularności. Dzięki temu “mirażowi” firmy otrzymają dużo bardziej zaawansowane i inteligentne narzędzia wspierające operacje w poszczególnych obszarach. —
Sztuczną inteligencję z powodzeniem stosuje się dzisiaj w sprzedaży, finansach, kadrach, obsłudze klienta czy marketingu. Wykorzystanie uczenia maszynowego pozwala zwiększyć skuteczność kampanii marketingowych i obniżyć ich koszty. Np. w pakiecie CX Cloud Suite zastosowaliśmy oparty na sztucznej inteligencji mechanizm optymalizacji ceny, który sugeruje specjalistom ds. sprzedaży udzielanie rabatów starannie wybranym klientom - tłumaczy Adam Wojtkowski, Dyrektor Generalny Oracle Polska.Ponadto, dzięki szerszemu dostępowi do narzędzi SI towarzyszących usługom chmurowym możliwe będzie nawiązanie równej walki z cyberprzestępcami. Nie oszukujcie się. Trwa cyberwojna. A my przegrywamy. Co roku jest coraz gorzej. Musimy zmienić strategię, nie może być tak, że wystawiamy naszych ludzi przeciw ich komputerom. To muszą być nasze komputery kontra ich komputery — mówił Larry Ellison, przekonując, że w dobie tak złożonych technik stosowanych przez crackerów i rosnącej liczby zagrożeń nie da się chronić infrastruktury bez wsparcia automatyki. Sztuczna inteligencja będzie więc w stanie rozpoznawać odbiegającą od normy aktywność w sieci, wykrywać i “łatać” luki w zabezpieczeniach, przewidywać prawdopodobieństwo cyberataku, zaś w przypadku konieczności odparcia go “wystawi do walki” odpowiednią liczbę zasobów.
Maszyny z wyobraźnią
Sztuczna inteligencja, doskonała w wykrywaniu podobieństw cierpi na pewne ograniczenia — brakuje jej wyobraźni, potrzebnej do samodzielnego tworzenia. Oznacza to, że takie algorytmy z łatwością wyodrębniają obrazy, na których np. znajduje się rowerzysta, jednak same nie potrafią takiego obrazu stworzyć. Ma się to zmienić za sprawą pewnego odkrycia, które miało miejsce na Uniwersytecie w Montrealu. Stworzona przez Iana Goodfellow koncepcja, znana jako generative adversarial network sprawiła, że SI po raz pierwszy zyskała swoistą wyobraźnię. Jak do tego doszło? W dużym uproszeniu GAN polega na rywalizacji dwóch sieci neuronowych w grze przypominającej kotka i myszkę. Obie sieci uczą się na podstawie tej samej bazy danych. Jedna z nich przyjmuje rolę generatora i na podstawie widzianych wcześniej obrazów tworzy podobne. Druga, zwana dyskryminatorem, sprawdza, czy wygenerowany obraz jest wygenerowaną przez maszynę wadliwą kopią. W ten sposób maszyna odrzuci grafikę przykładowego rowerzysty posiadającego dodatkową kończynę lub oczy z tyłu głowy. Z czasem komputer uzbrojony GAN staje się tak dobry w tworzeniu obrazów, jak algorytmy uczenia maszynowego w ich odróżnianiu. W testach okazało się, że technologia doskonale radzi sobie z naśladowaniem ludzkiej mowy, jak również z tworzeniem fotorealistycznych obrazów. Wygenerowane przez SI materiały charakteryzowały się takim realizmem, że odróżnienie sztucznie wygenerowanych próbek od prawdziwych przykładów było co najmniej problematyczne.
Rozumienie danych i głosu w trybie rzeczywistym
Wszyscy pamiętamy sceny z kultowych filmów science fiction, w których bohaterowie za sprawą ekstrawaganckiej technologii nie tylko rozumieli obce języki, lecz nawet z łatwością się w nich komunikowali. Rok 2018 przybliża nas do tej rzeczywistości, a wszystko za sprawą opracowywanych urządzeń do tłumaczenia języka mówionego w czasie rzeczywistym. Za pośrednictwem połączonej ze smartfonem słuchawki możliwe będzie natychmiastowe tłumaczenie sentencji wypowiadanych w innym języku przez rozmówcę na pożądany przez użytkownika. Pomimo kilku obaw o doskonałość tego rozwiązania, które zapewne sprawdzą się w pierwszej fazie jego rozwoju, to bardzo obiecująca technologia, bazująca na technice NLP (Natural Language Processing) czyli przetwarzaniu języka naturalnego.
To jedno z podstawowych narzędzi cognitive computingu, pozwalającego na badanie danych “ze zrozumieniem”. Dzięki temu, możliwe jest tłumaczenie tekstu w czasie rzeczywistym - także w formie głosowej, ale także przeszukiwanie ogromnych zbiorów firmowych danych w poszukiwaniu nie tyle danej frazy czy zdania, ale nawet konkretnego “kontekstu” ich zastosowania czy poddawanie analizie biznesowej całego cyfrowego dobytku przedsiębiorstwa, a nie jedynie jego skrawka. Techniki kognitywne potrafią “sięgać” także po nieustrukturyzowane dane, czyli te dotychczas niewykorzystywane przez firmy, pozwalając np. na lepsze poznanie klientów dzięki ich aktywności w sieci czy skuteczniejsze przewidywanie trendów bazując na większej liczbie parametrów z wielu źródeł. To bardzo istotna kwestia, biorąc pod uwagę, iż dzisiejszy biznes korzysta jedynie z 10-20% gromadzonych danych — dodaje Jacek Grzyb z firmy teamLeaders, firmy dostarczającej rozwiązania kognitywne.Warto wspomnieć, że ostatnio, na uwadze zyskuje także technika rozumienia języka naturalnego (NLU – Natural Language Understanding), której rozwój pozwala narzędziom sztucznej inteligencji na „radzenie sobie” z nieprzewidywalnymi danymi wejściowymi, co w przypadku rozmowy odnosi się np. do kolokwializmów, skrótów myślowych czy przestawionych szyków zdań, które dotychczas wprawiały rozwiązania bazujące na SI w zakłopotanie. Przy zastosowaniu NLU, zrozumiałe będą komendy zawierające wspomniane elementy czy proste błędy, które system będzie w stanie ujednolicić i udzielić odpowiedzi nie wymagając korekty ze strony rozmówcy.
Koniec z emisją CO2
Paliwa kopalne są jednym podstawowych źródeł energii i wszystko wskazuje na to, że w najbliższych latach tej pozycji nie utracą. Ich przetwarzanie nie jest obojętne dla środowiska i wiąże się z wysoką emisją dwutlenku węglą. W Houston w stanie Texas powstaje właśnie Net Power — 50-megawatowa elektrownia. Ma ona wytwarzać energię co najmniej tak tanio, jak standardowe instalacje gazu ziemnego, wychwytując cały dwutlenek węgla uwalniany w tym procesie. Jeśli projekt okaże się sukcesem, elektrownie gazowe mają szansę zastąpić te atomowe, których utrzymanie wiąże się z ogromnymi kosztami. Sposobem na generowanie oszczędności przy wytwarzaniu energii z gazu ziemnego ma być sprzedaż pozyskane w ten sposób dwutlenku węgla. Popyt na CO2 mają również kreować producenci cementu i plastiku.
Pełna anonimowość w sieci
W czasach, w których w Internecie można znaleźć na nasz temat niemal wszystko, prawdziwa prywatność to wręcz święty Graal współczesności. Wzrastająca ilość naszych interakcji realizowanych poprzez aplikacje, serwisy społecznościowe, a także zwiększona liczba kontaktów z różnymi użytkownikami znacznie utrudniają pozostanie całkowicie niewidocznym. W najbliższym czasie ma się to jednak zmienić, a całkowita prywatność w sieci może stać się faktem. Informatycy cały czas pracują bowiem nad sieciowym narzędziem, które pozwoli jednej ze stron udowodnić drugiej, że dysponuje pewną informacją, bez jej ujawniania. Zastosowanie tej technologii w procesach uwierzytelniania np. bankach ma zapewnić najwyższy od lat poziom anonimowości i obniżyć ryzyko wypłynięcia wrażliwych danych osobowych. Narzędzie ma bazować na algorytmie kryptograficznym, zwanym dowodem z wiedzą zerową (zero-knowledge proofs). Naukowcy pracują nad tą metodą już od kilkunastu lat, ale zainteresowanie nią eksplodowało dopiero w zeszłym roku dzięki rosnącej popularności kryptowalut. Do tej pory większość bitcoinowych transakcji cechowała pełna transparentność – w dowolnym eksploratorze bloków można zobaczyć strony transakcji i ich wartości. Całkowitą prywatność swoich klientom zaoferowała jednak firma Zcash, która do szyfrowania swoich transakcji używa właśnie algorytmu zero-knowledge proofs, czyli tak zwanego zk-SNARK. Ten niezwykle skuteczny zaawansowany system szyfrujący praktycznie uniemożliwia znalezienie nadawcy i odbiorcy. To może być ważny krok naprzód w ochronie wrażliwych informacji i rozwoju technologii służących do przechowywania i przetwarzania danych, m.in. chmur obliczeniowych. Zastosowanie algorytmu zero-knowledge proofs w urządzeniach sieciowych może stać się jednym z głównych rozwiązań bezpieczeństwa, szczególnie w regulowanych branżach, takich jak finanse czy służba zdrowia. Chcąc zagwarantować możliwie najwyższy poziom usług, coraz przychylniejszym okiem patrzą one m.in. na operatorów data center, oferujących nowoczesne i kompleksowe usługi IT z chmurą obliczeniową na czele.
Genetyczne wróżby
Pewnego dnia po porodzie dzieci otrzymywać będą raport DNA zawierający przewidywania dotyczące szans na atak serca lub zachorowanie na raka, uzależnienie od tytoniu czy posiadanie ponadprzeciętnej inteligencji. Tworzenie takich raportów stało się możliwe dzięki przeprowadzonym na szeroką skalę badaniom genetycznym. W niektóre z nich zaangażowanych było miliony ludzi. Okazuje się, że najczęstsze choroby i wiele cech czy zachowań, w tym inteligencja, są wynikiem nie jednego lub kilku genów, ale wielu genów działających wspólnie. Korzystając z gigantycznych zbiorów danych naukowcy tworzą coś, co nazywają „polygenic risk scores” (ang. poligenową oceną ryzyka). Mimo, że dzięki takim badaniom otrzymuje się rachunek prawdopodobieństwa, a nie diagnozę, mogą one być niezmiernie przydatne w rozwoju medycyny. Firmy farmaceutyczne mogą wykorzystywać wyniki testów do prowadzenia badań klinicznych leków prewencyjnych np. na chorobę Alzheimera czy dolegliwości sercowe. Wybierając ochotników, którzy mają większe szanse na zachorowanie, będzie można dokładniej sprawdzać działanie leków.
Projektowanie cząsteczek
Kwantowe komputery oferować będą niespotykaną dotychczas moc obliczeniową. Naukowcy już dziś szukają dla niej zastosowań. Spośród licznych pomysłów należy zwrócić uwagę na możliwość dokładnego projektowania cząsteczek. Dzięki niemu mamy szansę otrzymać nowe rodzaje białek, dzięki którym powstaną efektywniejsze leki, nowatorskie elektrolity dla bardziej pojemnych baterii, czy związki zmieniające zmieniające światło słoneczne w płynne paliwo. Zaprojektowanie tego typu cząsteczek wykracza poza możliwości klasycznych komputerów. Nawet prosta symulacja zachowanie się elektronów w stosunkowo prostej cząsteczce wiąże się ogromnymi zawiłościami. Dla komputerów kwantowych, które zamiast ciągów zerojedynkowych korzystają z kubitów, takie obliczenia nie stanowią problemu. Udowodnili to niedawno badacze z IBM, którzy wykorzystali siedmio-kubitowy komputer do utworzenia modelu cząsteczki zbudowanej z trzech atomów.