Nie da się nie zauważyć, e-sport staje się z roku na rok coraz bardziej popularny. Rozgrywki najlepszych drużyn z całego świata są coraz częściej transmitowane w telewizjach internetowych na takich portalach jak na przykład twitch.tv. Ostatnio nawet można oglądać mecze e-sportowe w tradycyjnej telewizji na programach tematycznych.

Counter-strike, FIFA, League Of Legends, Dota 2, Starcraft… można wymieniać i wymieniać.

Oto parę najpopularniejszych tytułów gier w jakich trwają rywalizacje. Zasady są podobne, aby wygrać trzeba pokonać drużynę przeciwną. W Couter-Strike strzelamy do przeciwnika z broni palnej, jesteśmy terrorystami lub antyterrorystami.. W Fifie gramy wirtualny mecz w piłkę nożną. W League Of Legends walczymy z drużyną przeciwną sterując bohaterem wyposażonym w różne umiejętności i przedmioty, podobnie jak w Dota 2. Starcraft zaś jest grą bardziej strategiczną.blizzcon-2014-plays-host-starcraft-2-world-championship-finals

Dlaczego e-sport stał się tak bardzo popularny?

Gry od początku swojego istnienia nabierały na wartości i popularności. Teraz są tak ogromne możliwości sprzętowe i każdy z nas ma praktycznie stały dostęp do internetowej sieci, więc i dostępność gier sieciowych jest prostsza. Poza tym młodych graczy przyciąga także zarobek. Na e-sporcie można całkiem sporo zarobić pod warunkiem, że jest się w tym dobrym.

Zawodowi gracze zarabiają po kilkanaście tysięcy złotych. Jak tradycyjni zawodnicy sportowi mają też własnych sponsorów, którzy zapewniają sprzęt i finanse.

Oprócz pieniędzy z wygranych turniejów zarabiają też na streamie, czyli udostępnianiu swoich rozgrywek w telewizjach internetowych. Posiadają też własne kanały na Youtube, z tego też idzie całkiem niezła kasa. Można by wymieniać źródeł dochodów takiego gracza w nieskończoność. Wszystko zależy od tego w co gramy i w jakim kierunku się rozwijamy.

Jedno jest pewne, z tego można wyżyć, ba.. można żyć w całkiem dobrym luksusie.

Co jeszcze przyciąga graczy? Hmm… Wydaje mi się, że po prostu rywalizacja. Każdy chce być najlepszy w daną grę a gdy stajemy się lepsi od naszych znajomych, przyjaciół czujemy się lepiej.

Czy e-sport stanie się popularniejszy od tradycyjnych dyscyplin?

Od niektórych jest już popularniejszy, jednak musimy zwrócić uwagę na to, że e-sportem interesują się przede wszystkim młodzi gracze w wieku 15-30 lat. Co będzie za 10 lub 20 lat ciężko mi powiedzieć, ale myślę, że i tak nie przebije piłki nożnej czy siatkówki.

Słowem końca.

Tak jak wspominam w wielu postach, technologia idzie do przodu a my razem z nią. To co dziś jest na topie za chwilę może spaść z góry sławy. Powstaną nowe technologie i nowe zainteresowania. Pewne jest, że e-sport utrzyma się na rynku jeszcze przez długi, długi czas.

 

4K już jest jakiś czas na rynku, ale i tak jest to temat, który warto i chciałbym poruszyć.

Patrząc nie daleko wstecz, jakąś dekadę lub dwie, wtedy gościły w naszych domach w większości telewizory CRT czyli te z lampą obrazową. Były one dość dużych gabarytów i trzeba było kombinować z umiejscowieniem ich. Dodatkowo obraz nie był najlepszej jakości. Jednak nikt się tym nie przejmował, ponieważ i tak wydawały się w tamtych latach czymś świetnym i nowoczesnym. Trzy programy w TV – Jedynka, Dwójka i Polsat. Nie jeden też posiadał odtwarzacz kaset VHS czyi VIDEO lub Magnetowid. Później doszły dekodery Cyfrowego Polsatu, Cyfra + czy jeszcze pamiętam wizja TV i mogliśmy się cieszyć większą liczbą kanałów.

Wróćmy jednak do telewizorów, słowem stępu nakreśliłem trochę dawne czasy mojej młodości, które wspominam bardzo dobrze. Telewizory CRT, gry na konsole PEGASUS i kasety VIDEO to była część mojego dzieciństwa. Przejdźmy jednak do teraźniejszości. Oprócz telewizorów HD, FULL HD pojawiła się opcja rozdzielczości 4K. Czyli 3840 na 2160 pikseli co daje nam łącznie ponad 8 milionów pikseli w naszym telewizorze 40 calowym lub większym.

Co daje nam tak duża rozdzielczość czyli za co płacimy?

Krótko mówiąc rozdzielczość to właśnie liczba pikseli w naszym telewizorze, producenci podają ile pikseli znajduje się w jednej linii pionowej i poziomej. Im wyższa liczba tym obraz jest bardziej ostry, wyrazisty i dokładny. Czyli jednym słowem płacimy za jakość obrazu.

Co mogę oglądać na telewizorze 4k?

Oglądać możecie dosłownie wszystko. Klasyczną telewizje, filmy na DVD a nawet nagrania z kaset VHS. Nasz telewizor poprawi jakość naszych materiałów na lepszą i dostosuje ją do rozdzielczości.

Jednak aby w pełni sięgnąć możliwości takiego telewizora potrzebujemy treści natywnych 4K.
Obecnie większość smartfonów, kamer czy aparatów obsługuje rozdzielczość 4K. Nasze nagrania i zdjęcia będą wyglądać naprawdę świetnie.

Czy warto inwestować w taki telewizor?

Koszt takich telewizorów zaczyna się od półtora tysiąca i teraz w standardzie stają się rozdzielczości 4K więc patrząc w przyszłość, tak opłaca się. Wystarczy, że przejdziemy się do jakiegoś sklepu RTV i zobaczymy jakość obrazu na tych telewizorach.

Steam Controller

Zapewne doszły was słuchy o nowym kontrolerze od Steam. Firma na swojej platformie wydaje mnóstwo gier takich jak Counter Strike, Dota 2, Left4Dead, czy niezapomniany Half Life. Jednak poszli krok dalej w kierunku graczy i stworzyli kontroler z myślą o graczach komputerowych.

Steam Controller już na pierwszy rzut oka wydaje się czymś nietypowym. Zamiast tradycyjnego krzyżaka mamy zaawansowane panele dotykowe, oczywiście nie brakuje normalnych przycisków akcji, jest też gałka analogowa. Więc śmiało można powiedzieć, że jest to taka hybryda tradycyjnego pada z nowoczesnością. Kontroler, jak już wyżej wspomniałem został zaprojektowany dla graczy PC co wiąże się z tym, że możemy grać na nim w te gry, które nie są przeznaczone na konsole.controller

Podłączony do komputera za pomocą bezprzewodowego odbiornika USB wykrywany jest jako połączenie klawiatury i myszki, za prawy klik odpowiada prawy spust a za lewy jak za pewne się domyślacie lewy spust.

Posługujemy się nim podobnie jak touchpadem w laptopie, jednak gdy przesuwamy nasz kciuk po panelu czujemy delikatną i słyszymy efekt dźwiękowy jakby skrzypiąca szafa. Mimo wszystko jest to bardzo precyzyjne urządzenie i możemy nim sterować z dokładnością co do pixela.

Tylna strona naszego controllera została zaprojektowana też bardzo ciekawie i futurystycznie. Pod naszymi palcami znajdują się dwa przyciski akcji w kształcie skrzydełek co jest bardzo ciekawym rozwiązaniem.

controller

Sama platforma Steam oczywiście została przystosowana do naszego pada i poinformuje nas ona, czy gra jest obsługiwana przez nasz kontroler. Jeśli jednak gra w którą chcemy zagrać działa wyłącznie dzięki myszce i klawiaturze pojawi się informacja w stylu, że i tak możemy nią zagrać na naszym Steam Controller.

 

 

Moje zdanie na temat tego pada nie jest jednoznaczne, ponieważ podoba mi się, na pewno jest futurystyczny co widać na pierwszy rzut oka, ale mimo wszystko nie przekonuje mnie za bardzo, wolę tradycyjne pady z tradycyjnym krzyżakiem, ten tutaj raczej mi nie odpowiada.

Poniżej dodam wideo recenzje od Arhn.eu

Wszystkie kalkulacje, które do tej pory zrobiono wskazywały jasno – zakup auta na prąd nie ma sensu z ekonomicznego punktu widzenia. Czy to Chevrolet Volt w cenie ok 200 tys. zł czy Renault Kangoo w cenie bliskiej stu tysięcy, ale z koniecznością dzierżawy akumulatorów, za wcale nie symboliczne pieniądze, czy Mitsubishi MIEV, kosztujący niewiele mniej niż Volt – wszystkie one nie umożliwią dzięki tańszej eksploatacji zwrotu dużo wyższej kwoty wydanej na zakup.

Nie dość, że auta te są dużo droższe, niż ich odpowiedniki spalinowe, to jeszcze mają bardzo ograniczony zasięg i inne parametry użytkowe. Teoretycznie wyższa cena moze być skompensowana przez znacznie niższe koszty eksploatacji, ale różnice te są póki co zbyt duże by dało się to osiągnąć w praktyce.

Odnoszę wręcz wrażenie, ze ceny te są ustalone przez producentów jako zaporowe. Ustawione zostały tak wysoko, by auta te masowo się jeszcze nie sprzedawały. Być może są to po prostu auta, dzięki którym zostaną zebrane doświadczenia, dla modeli znacznie ciekawszych które zostaną zaprezentowane w przyszłości.

Pierwsza jaskółka, że już teraz moze być inaczej przyszła z USA. Firma Tesla Motors wprowadziła w tym roku do sprzedaży auto zasilane elektrycznie, które nie tylko gabarytami, ale i ceną konkuruje z takimi modelami jak BMW seri 5 czy Mercedes E.
Wyposażone zostało w bardzo mocny silnik, zapewniający nie tylko znakomite przyspieszenie, ale i komfort. Zasięg dobijający w niektórych wersjach do 400 km sugeruje, by traktować tę ofertę całkiem poważnie.

Oczywiscie Tesla model S nie oferuje nawet opcjonalnie tak bogatego wyposażenia jak BMW 535i, jednak pozwala podróżować naprawdę tanio. A do tego zachwyca właściwościami jezdnymi oraz przepastną przestrzenią bagażową.

Niestety mimo ceny zbliżonej do konkurencji ( mówimy tu o kwocie ok 100 tys. Dolarów), Tesla nie ma zbyt bogatego wyposażenia, a do tego auto to jest na razie oferowane wyłącznie w USA. Rozważania ekonomiczne mają więc w tym wypadku niewielki sens.

Zdecydowałem się jednak na zamieszczenie tego wpisu z innego powodu. W przeciągu ostatnich dni stały się powszechnie dostępne informacje na temat auta elektrycznego firmy BMW. Mowa o modelu i3, ktory ma szansę być pierwszym względnie opłacalnym w zakupie i eksploatacji autem elektrycznym.

Na razie wiemy, że będzie to auto wielkości hatchbacka segmentu B, czteromiejscowe, z silnikiem umieszczonym z tyłu. Silnik elektryczny o mocy 170 KM przy wadze auta na poziomie 1250 kg powinien zapewnić świetne osiągi, a cena, jak na auto elektryczne, została ustalona na poziomie zadziwiająco umiarkowanym – od 36 tys euro. Cena dobrze wyposażonego auta GTI segmentu B dobija zwykle do 100 tys zł, choć trzeba mieć na uwadze, że BMW Mini da się bez wysiłku skonfigurować i za 140 tys. zł, jednak BMW i3, jako jedyne w tym segmencie, zaoferuje napęd na koła tylne.

Trzeba mieć jednak świadomość, że w przypadku i3 tankujemy energię elektryczną z gniazdka, a nie benzynę, co po przejechaniu 200 tys km da nam oszczędności na poziomie 60 tys. zł. Założyłem, że koszty porównujemy z autem, które spala 7l benzyny na 100 km, a prąd kosztuje nas 6 zł za każde przejechane 100 km.

Sumarycznie po 5 latach dość intensywnej eksploatacji rachunek wynosi więc za elektryka 150-160 tys. zł. Zakładając kupno auta GTI segmentu B za około 80 tys. zł sumarycznie z paliwem i serwisem wyjdzie kwota zbliżona – 150-160 tys. Być może uda się wyjść na elektryku na plus. Jeśli okaże się, że nie będzie on mocno tracił na wartości, i sprzedamy go za około 40 procent pierwotnej ceny, otrzymamy na koniec ok. 60 tys. zł. W wypadku auta z silnikiem spalinowym kwota ta będzie blisko połowę mniejsza (zakładając taki sam procentowo spadek wartości).

Idea pojazdu na sprężone powietrze to nie nowość. Od kilku lat obserwuję firmę MDI która chwali się, że już za chwilę wprowadzi na rynek komercyjne pojazdy na sprężone powietrze. Odnoszę jednak wrażenie, że nie chodzi tu o żadną produkcję, lecz poszukiwanie sponsorów. Dla niepoznaki nazywanych inwestorami.

Sprężone powietrze to najmniej efektywny energetycznie sposób magazynowania energii. Straty są bardzo duże i w zasadzie nieuniknione. Nawet mimo stosowania specjalistycznych silników nie da się w tej materii osiągnąć istotnego postępu. Firma MDI sugeruje, że sposobem na poprawienie zasięgu ich aut będzie optymalizacja i dopracowanie konstrukcji. Obniżenie masy (auta te projektuje się od razu jako “plastikowe”), poprawienie aerodynamiki, efektywności konwersji energii, itd. itp..

Oczywiście tego rodzaju optymalizacje mają sens techniczny, a niewątpliwą zaletą sprężonego powietrza jest potencjalna szybkość jego “tankowania” jednak te same techniki można przecież zastosować do samochodów tradycyjnych czy elektrycznych. Bój toczy się nie o to byśmy jeździli plastikową namiastką samochodu lecz jego pełnoprawnym zamiennikiem, jedynie inaczej (taniej) zasilanym.

Tego komfortu sprężone powietrze raczej nigdy nam nie zapewni, ilość energii jaką jesteśmy w stanie w ten sposób zgromadzić jest relatywnie niewielka i postęp w tej materii jest bardzo ograniczony. Stoimy pod ścianą fizycznych barier, tak jak przy przechowywaniu wodoru, ale na znacznie niższym poziomie.

Wodór jest dość często przedstawiany w mediach jako paliwo przyszłości. Daje się stosować jako paliwo w silnikach spalinowych, może być paliwem w generatorze prądu elektrycznego, dlaczego więc nie jest powszechnie stosowany?

Niestety wodór ma dwie zasadnicze wady. Pierwsza i chyba najważniejsza – nie można go traktować jako źródło energii, lecz co najwyżej jako jej nośnik. Wodór nie występuje w przyrodzie jako gaz który daje się wydobywać. Przynajmniej nie w ilościach przemysłowych. Można go pozyskać z gazu ziemnego, ale na to szkoda zachodu – jest prościej i taniej użyć gaz ziemny bezpośrednio do napędzania samochodów.

Wodór można też pozyskiwać rozkładając wodę. Niestety jak każdy inny proces tak i ten wymaga dostarczenia energii. Co gorsza potrzeba zużyć nie tylko sporo energii by np. przy pomocy elektrolizy uzyskać wodór z wody, lecz przy okazji tego procesu sporo tej energii bezpowrotnie tracimy. Dodatkowo ponownie tracimy energię używając wodoru do wytworzenia siły pociągowej, obojętnie czy spalając go bezpośrednio w silniku spalinowym czy w chemicznym generatorze prądu. Sprawność takich przemian to maksymalnie 40 procent.

Drugi problem z wodorem to kwestia jego przechowywania. Aby przechować sensowną ilość wodoru należy go sprężyć pod ogromnym ciśnieniem. Wiąże się to z koniecznością używania ciężkich i drogich zbiorników, a mimo to nie uzyskujemy takiej koncentracji energii jaką posiada zwykły olej napędowy. Rzecz jasna wodór jest w stanie zmagazynować o wiele więcej energii w jednostce objętości niż akumulatory którymi obecnie dysponujemy. Z tego właśnie powodu jest rozważany jako alternatywa dla ropy.

Moim zdaniem jest to jednak ślepa uliczka. Ze względu na fizyczne ograniczenia w zasadzie nie da się tu nic znacząco usprawnić. Nawet gdybyśmy dysponowali lekkimi kompozytowymi zbiornikami pozostaje do rozwiązania problem sieci dystrybucji wodoru.
Taka sieć wymagała by ogromnych nakładów na jej stworzenie, a istnieje duże ryzyko, że byłaby jedynie etapem przejściowym.

Etapem docelowym będzie moim zdaniem zasilanie elektryczne. Z czasem dzięki postępowi techniki dojdziemy zapewne do takiego poziomu rozwoju akumulatorów, że będą one gromadziły zbliżoną ilość energii do tego co oferuje wodór. Potem zapewne nawet więcej. Oby jak najszybciej.

 

Przemysł komputerowy ma już kilkadziesiąt lat, a wraz z nim światowy sukces odniosły gry.

Począwszy od pierwszych konsol typu ATARI, FAMICOM czy nasza europejska podróbka PEGASUS. Gry typu Mario Bross, Contra, Castlevania odnosiły ogromny sukces. Ludzie potrzebowali rozrywki czy oderwania się od świata codziennego. Później powstały konsole Play Station i gry na komputery PC. DOOM, Serie The Elder Scrolls, DUKE NUKEM 3D – pierwsze gry jakie pamiętam. Mimo słabej grafiki szczyciły się światową popularnością.

Technologia idzie pewnym krokiem do przodu. Najlepiej możemy to dostrzec właśnie na rynku IT, gdzie dekadę temu za dobry komputer z kością DDR, kartą grafiki 128MB, procesorem jednordzeniowym, dyskiem 80GB, monitorem kineskopowym – 15 calowym, musieliśmy dać około 3000 tysiące złotych. Dzisiaj za dwa tysiące mamy porządny sprzęt pięć razy lepszy.

Co do gier to możemy sobie porównać jakość grafiki choćby właśnie na seri TES (The Elder Scrolls). Odpalcie sobie pierwszą część tej serii która powstała w latach 90-tych i zobaczcie jaka ogromna jest różnica pomiędzy nią, a najnowszą odsłoną The Elder Scrolls SKYRIM, która powstała w 2011 roku.

Rynek gier z roku na rok jest coraz bardziej popularny. Rozgrywki sieciowe gier takich jak League of legends, Dota 2 czy Couter-Strike możemy podziwiać nawet w telewizji.
Coraz więcej firm produkujących gry walczy pomiędzy sobą, chcąc przyciągnąć do swoich produktów jak najwięcej graczy na jak najdłużej.

Zastanawia mnie to jak rynek gier będzie wyglądał za 10 czy nawet 20 lat. Czy komputery PC będą nadal popularne w rynku gier, czy być może powstaną nowe konsole lub maszyny specjalnie przystosowane by jak najgłębiej i jak najbardziej realnie oddawały wirtualny świat.
Być może, któregoś dnia przyjdzie nam założyć na głowę cybernetyczny hełm, który sprawi że przeniesiemy się do wirtualnego świata niczym Neo wchodził do Matrixa w słynnej serii zatytułowanej właśnie MATRIX.

Tego co nasz czeka niestety nie jesteśmy pewni w stu procentach. Możemy jedynie czekać i obserwować.

Znana zapewne wszystkim organizacja NASA w 1961 roku wpadła na ciekawy pomysł i wysłała w kosmos satelitę MIDAS 4, która miała ostrzegać o odpaleniu radzieckich rakiet. To nic nadzwyczajnego gdyby ne fakt, że na jej pokładzie znajdowało się setki milionów mikroskopijnych miedzianych igieł. Które miały zostać rozsypane na orbicie.

Skąd taki pomysł i po co ktoś miałby rozsypywać miedziane igły na orbicie?

Amerykanie bali się konfliktu ze Związkiem Radzieckim. Za globalną łączność odpowiadały podmorskie kable, które mogły zostać zniszczone co oznaczało by całkowity brak łączności.
Dlatego zastanawiano się nad tym jak zapewnić skuteczną łączność w warunkach konfliktu.
Wpadli więc na pomysł by wykorzystać do łączności jonosferę, czyli warstwy atmosfery, które odbijają fale elektromagnetyczne.

zespół z Massachusetts Institute of Technology, a konkretnie z finansowanego przez Departament Obrony Lincoln Laboratory opracował plan otoczenia Ziemi pierścieniem z metalowych, odbijających fale radiowe igieł.           

Niestety misja zorganizowana w ramach projektu West Ford misja MIDAS 4 nie powiodła się. Igły na pokładzie niestety nie rozsypały się jak i panele słoneczne nie rozwinęły się prawidłowo.
Dopiero dwa lata później satelita MIDIAS 6 rozproszyła ponad 350 mln igieł, które utworzyły wokół pas o szerokości 40 i grubości 6 kilometrów.

Niestety tak duży obszar igieł zakłócał przejrzyste obserwowanie kosmosu z ziemi więc misja spotkała się z wieloma protestami ze strony grup astronautów.
Mimo tego, że w zasadzie projekt można uznać za sukces to jednak był on bez znaczenia, ponieważ w tym samym czasie prace trwały nad projektem West Ford a na orbicie znalazł się Telstar 1 – pierwszy satelita przeznaczony do celów telekomunikacyjnych. Tak więc MIDIAS nie musiał wcale wynosić w przestrzeń tylu milionów igieł, które i tak z biegiem czasu spłoną w atmosferze.

Jak wiadomo nie wszystkie misje w kosmos były potrzebne, ale na pewno wprowadzają postęp w dziedzinie lotów w kosmos.
Ciekawe jakie jeszcze ciekawe projekty pojawią się w przyszłości, jedno jest pewne – technologia idzie do przodu!!!

Informacje zawarte w poście zaczerpnąłem z portalu gadzetomania.pl

 

 

Cassini jest to nazwa sądy, która została wysłana w stronę Saturna 15 października 1997 roku. Niedawno właśnie obchodziliśmy 18-lecie misji Cassini. W drodze do Saturna dwukrotnie przeleciała obok Wenus minęła Ziemię oraz Jowisza.

 

Dlaczego misje nazwano Cassini?

Jest to nazwa na upamiętnienie siedemnastowiecznego astronoma, który to zaczął się interesować Saturnem i stworzył fundamenty pod nowożytną naukę o tej planecie. Odkrył on cztery księżyce Saturna takie jak: Reę, Tetydę, Dione i Japeta oraz przerwę w pierścieniach tej planety.

 

Cele misji.

Głównym celem jest przeprowadzenie dogłębnej eksploracji systemu Saturna. W końcu 2004 roku sonda weszła na orbitę Saturna i znajduje się na niej do tej pory. Do 2012 roku wysłała 444 gigabajtów danych naukowych, w tym ponad 300tys. zdjęć. Wśród odkryć sądy są gejzery Encladusie (księżyc Saturna), jeziora węglowodorów na powierzchni Tytana, zjawiska atmosferyczne na Saturnie w tym wielka burza.Saturna

Robert Mitchell z NASA Jet Propulsion Laboratory w Pasadenie w Kalifornii, kierownik programu Cassini
„Cassini dokonała najdokładniejszych w historii badań Saturna i pokonała najbardziej skomplikowaną trajektorię lotu z wykorzystaniem asyst grawitacyjnych. Na przykład każdy przelot koło Tytana można porównać do nawlekania igły, a udało nam się tego dokonać już 87 razy, z dokładnością do około 1,6 kilometra, przy kontroli wszystkiego z Ziemi odległej o 1,5 miliarda kilometrów”

Pierwsze przedłużenie misji (Misja Równonocy)

Rozpoczęła się 1 lipca 2008 roku i miała potrwać do 11 października 2010 roku. Jej celem było:

  • Przeprowadzenie bardziej szczegółowych obserwacji księżyców Saturna, w szczególności Tytana i Enceladusa.
  • Zbadanie nowych regionów magnetosfery Saturna.
  • Obserwacja zmian sezonowych zachodzących na Tytanie i Saturnie.
  • Obserwacja pierścienie Saturna podczas równonocy.

 

Drugie przedłużenie misji (Misja przesilenia)

Jest ona tak nazwana ponieważ w maju 2017 roku ma nastąpić przesilenie letnie. Uważa się, że jest to już ostatnie przedłużenie, gdyż na 15 października 2017 roku planuje się zniszczenie sądy w atmosferze Saturna.

 

Na Saturnie być może znajduje się życie!

Podczas badań naukowcy natknęli się na jednym z księżyców (Enceladusie) na ocean pokryty oblodzoną powłoką. To umożliwia, że potencjalnie mogą tam powstać warunki do życia. Jednak są to tylko przypuszczenia przez nikogo nie potwierdzone, ale naukowcy jeszcze mają dwa lata na badanie, dzięki czemu będą mieli szanse na sprawdzenie dokładnie tego miejsca.

 

Minimalizacja urządzeń to w dzisiejszych czasach norma. Wiele urządzeń jest zminiaturyzowanych minimalizacjaaby można było je łatwiej przenieść. Najbardziej można to zobaczyć na komputerach, które u swych początków zajmowały niewyobrażalnie dużo miejsca. Jego masa wynosiła około 27 ton i znajdował się on na powierzchni 140 metrów kwadratowych. Naprawdę robi wrażenie.

Minimalizacja sprzętu.

Jednak z czasem zaczęto coraz bardziej zmniejszać komputery. Technologia coraz bardziej szła do przodu i była potrzeba jego zmniejszenia. W końcu udało się je minimalizacjadoprowadzić do takiego stanu, że każdy obywatel mógł posiadać sprzęt na własny użytek. Na początku nasze komputery nie były mocne pod względem parametrów, ale dawały rade i radziły sobie z wieloma funkcjami. Każdy z nas pamięta jeszcze stare monitory CRT, które nie zawsze się mieściły na biurku w małym pokoju ze względu na swoje gabaryty. Jednak i im się dostało po uszach i zostały obkrojone w dużym stopniu.

Kolejno nasze stacjonarne komputery zostały zastąpione przez laptopy, które cechowały się minimalistką i dużą wygodą. Mogły być w łatwy sposób przenoszone minimalizacjaco sprawiło, że wiele osób się od nich uzależniło, gdyż pomagały one w pracy.

Kolejnym punktem zwrotnym były tablety, które oferowały dotykowy ekran. Stawiały one na jeszcze większą mobilność. Można było je zabrać w podróż nie tracąc przy tym dużo miejsca w bagażu. Znalazły one uznanie  w wielu bankach. Ostatnio kiedy zakładałem konto korzystałem z tableta , na którym ustawiałem hasło do swojego konta bankowego. Wszystko było zorganizowane w bardzo odpowiedni sposób.minimalizacja

Kolejno pojawiły się smartfony, bez których nie wyobrażamy sobie życia. Już prawie każdy z nas się na nie przerzucił. Oczywiście są osoby, które wolą tradycyjne telefony, np. moi rodzice. Jednak smartfony oferują wielkie możliwości, dostępu do Internetu, szybkości przeglądania stron oraz dużej jakości zdjęć. Jeżeli chodzi o wytrzymałość są niestety na bardzo niskim poziomie, ale jest to wszystko zamierzone, gdyż zmusza nas to do ciągłego wymieniania telefonu co napędza gospodarkę.

Dodatkowo Intel wyprodukował komputer wielkości pednriva –Intel computer Stick. minimalizacjaNa pewno przyda nam się on podczas podróży. Z tego co się orientuje można go wpiąć do telewizora i za pomocą pilota z niego korzystać, ale ja jeszcze nie miałem przyjemności wytestowania tego sprzętu. Jak macie jakieś doświadczenia to podzielcie się nimi w komentarzu.

 

Podsumowanie.

Oczywiście wszystko ma swoje wady i zalety. Jedni wolą stacjonarne komputery inni laptopy, znajdą się też tacy, którzy nie wyobrażają sobie życia bez tableta. Innym do szczęścia wystarczy sam smartfon. Ja natomiast chciałem zwrócić waszą uwagę jak technika idzie ciągle do przodu i niedługo wystarczy, że ubierzemy specjalne okulary i będziemy mieli dostęp do najświeższych informacji, zdjęć, filmów jak to było pokazane w jednej z gier komputerowych.

 

 

Strona 1 z 212