piątek, 23 grudnia 2016

Pożegnanie - Tomasz Marcinek


Wiadomość ta spadła na mnie jak grom z jasnego nieba – zadzwonił mój kolega Przemek i powiedział, że odszedł od nas Tomek Marcinek. Dzień przed Wigilią, gdy myśli dążą do spraw rodzinnych. Ja dziś zamknąłem jeden rozdział zawodowy i właśnie oddałem wypełnioną kartę obiegową. Tomek nie zdążył zakończyć niczego, co dotąd robił.
Profil Tomka w portalu LinkedIn

Poznałem go kilkanaście lat temu podczas konferencji, na której Nokia prezentowała najnowsze firewalle. Tomek zaproponował mi napisanie materiału do Computerworlda. Za pierwszym tekstem przyszły następne, a potem przeszedłem do ekipy Computerworlda na stałe. Tomek zajmował się w tym czasie „kastomami”, czyli materiałami pisanymi na potrzeby różnych firm. 
Jeden ze starszych tekstów Tomka


To był najlepszy czas dla prasy w kraju. Periodyk, dla którego pisaliśmy, nie przyjmował już reklam do numeru, bo nie można było przekroczyć maksymalnej objętości. Ja w tym czasie chłonąłem wiedzę skąd się tylko dało, bywałem na wielu konferencjach. Z różnych wyjazdów zrobiłem tysiące zdjęć – tak samo, jak Tomek, zajmuję się przecież fotografią. Tomek uwielbiał aparaty Nikona, a ja byłem po tej drugiej stronie barykady.

Żył bardzo energicznie, zazdrościłem mu tego, że potrafił się „ustawić” i wszystko zorganizować, zachowując czas dla rodziny. Próbował swoich sił w różnych przedsięwzięciach. Zbudował portal, na którym można było zamówić profesjonalnie wykonane i oprawione zdjęcia. Opracował i realizował model dystrybucji napisanych przez siebie tekstów na portalu Enterprise Software Review. Pisał bardzo dużo i bardzo dobrze. Prowadził również konferencje. Kilka razy proponował mi pracę, ostatni raz rozmawialiśmy o tym przedwczoraj. Nie mógł wiedzieć, że z tej ostatniej propozycji nie będę mógł skorzystać.

Jego dzieło, ściśle związane z pasją oraz działaniami.

 
Obiecywał mi, że niebawem będę mógł się spakować i tak po prostu pojechać na Węgry na urlop. Tak samo, jak on robił to od kilku lat i planował na przyszły rok.

Właśnie Tomek nauczył mnie rzemiosła, pomagał mi w zdobywaniu doświadczenia. Dzięki niemu stałem się zawodowym dziennikarzem technologicznym, prawdopodobnie jednym z lepszych w kraju. Jak pewnie wiecie, zajmuję się tym do dziś, moje teksty ukazują się w periodyku ITWiz.

Gdyby nie Tomek, prawdopodobnie przez kolejne lata byłbym administratorem sieci, być może kierownikiem działu IT w jakiejś firmie. Inżynierem systemowym jestem do dziś, to nie jest takie trudne. 

Nauczyć się nowego zawodu i pisać o informatyce w zrozumiały sposób – to było wyzwanie. Za wprowadzenie w świat zupełnie innej pracy – bardzo Mu dziękuję. Niech pozostanie w naszej pamięci.

niedziela, 18 grudnia 2016

Nawigacja i radio - pożegnanie wynalazku


W ubiegłym roku pożegnaliśmy w Europie ostatni system nawigacyjny, który wywodził się wprost z II Wojny Światowej *). System ten o nazwie Loran powstał na podstawie doświadczeń systemu Gee, opracowanego przez Brytyjczyków do naprowadzania bombowców na cele na terenie Niemiec. Loran był pracochłonny w użyciu, wymagał dokonywania precyzyjnych pomiarów na ekranie specjalnej lampy oscyloskopowej.
Urządzenie systemu LORAN-A, jedno z pierwszych w historii.
Fot. ze strony Signals Collection

Jak to działało?

Zasada działania polegała na pomiarze czasu między odebranymi przez urządzenie impulsami różnych stacji należących do jednej sieci. Wynik tych pomiarów umożliwiał wykreślenie linii na specjalnych mapach, a następnie określenie pozycji geograficznej na ich przecięciu.


System radiowy działający na tej zasadzie ma przewagę nawet nad systemami satelitarnymi – jest znacznie odporniejszy na zakłócenia. Sygnał GPS, GLONASS oraz Galileo (już działa!), jest niezwykle słaby w porównaniu do sygnału stacji Loran-C. W przypadku zniszczenia, zakłócania lub wyłączenia segmentu satelitarnego niezwykle popularna nawigacja satelitarna działać nie będzie. LORAN był od niej całkowicie niezależny, w porównaniu do satelitów był niezwykle prosty. Przegrywał pod względem zasięgu, dokładności i pracochłonności. 

Gdzie to działało?

LORAN był niezwykle popularny na statkach. Korzystali z niego nawigatorzy PLL LOT, którzy latali na Iłach-62 przez Atlantyk (urządzenie zdemontowano w 1989, nawigatorzy mieli jeszcze inny system o nazwie Omega, odbiornik firmy Marconi Canada).
Stacje nadawcze były rozsiane w różnych miejscach, często na małych wysepkach lub w ogólnie trudno dostępnym terenie. Często stacja nadawcza wyglądała tak:
Stacja LORAN na południowym Pacyfiku.
Samo wyposażenie, chociaż złożone, miało się nijak do dzisiejszych systemów, które wymagają bardzo skomplikowanych komputerów. Oto nadajnik:
Nadajniki i elektronika sterująca stacji LORAN.
Znajdowała się na przylądku Sarichef na Alasce w latach siedemdziesiątych.
Odbiornik LORAN z lat sześćdziesiątych z powodzeniem mieścił się na stole.

 

 Była nadzieja na rozwój

Brytyjczycy zaproponowali rozszerzenie starego standardu o cyfrową transmisję informacji o czasie, co umożliwiłoby wdrożenie komputerowego systemu nawigacji, który nie wymagałby w ogóle satelitów i zapewniałby dostateczną dokładność określania pozycji geograficznej. Niestety Niemcy, Francuzi, Duńczycy i Norwegowie nie byli zainteresowani wdrożeniem czegoś podobnego i ponoszeniem kosztów związanych z utrzymanie stacji nadawczych. Stacje zostały zamknięte, wysokie maszty pewnie będą wysadzone w powietrze i złomowane. Podobny los spotkał już dawniej amerykańskie stacje rozlokowane w różnych miejscach na globie.
Resztki masztu stacji LORAN na Port Clarence.
Zdjęcie dostarczyła USCG.

Na szczęście oficerowie na statkach nadal znają astronawigację, nadal potrafią sekstantem „złapać słońce” lub którąś z gwiazd, a następnie przy pomocy chronometru i tablic wyliczyć pozycję geograficzną. O problemach z działaniem GPS w okolicach Korei Północnej można dość często przeczytać w różnych miejscach.

Jak słaby jest sygnał GPS na Ziemi?

Wyobraź sobie dwie silne lampki do czytania obserwowane z odległości 20 tysięcy kilometrów.
Moc tego sygnału to kilkadziesiąt attowatów (atto - malutka podwielokrotność, 10 do potęgi minus 18), w mieszkaniu spada poniżej attowata. Bardzo rzadko spotyka się wielkości fizyczne z przedrostkiem podwielokrotności atto-, gdyż są to niezwykle małe wartości. Moc sygnału GPS na Ziemi jest właśnie tak bardzo niska.
Ma to swoje poważne konsekwencje - taki sygnał można bardzo łatwo zakłócić. Dostępne w handlu zagłuszaczki GPS używane czasami przez kurierów lub nieuczciwych kierowców mają bardzo poważne efekty uboczne. Trzy lata temu podobne incydenty powodowały problemy z działaniem londyńskiej giełdy papierów wartościowych. Z takim przypadkiem spotkałem się osobiście przy testach amatorskiego odbiornika synchronizowanego za pomocą modułu GPS - ilekroć pod blokiem parkował konkretny dostawczak, testowany odbiornik wypadał z synchronizacji. To samo stanie się z innymi urządzeniami nawigacji satelitarnej w pobliżu. LORAN nie miał tego problemu.

O historii nawigacji z użyciem tego wynalazku można przeczytać na stronach jproc.ca (prawdziwa kopalnia wiedzy na tematy okołoradiowe).

*) Wśród systemów tej klasy została już tylko rosyjska (dawniej radziecka) Czajka, ale działa ona na innej częstotliwości niż sieci LORAN. Częstotliwości stacji LORAN pozostawały niezmienne przez dekady.

czwartek, 15 grudnia 2016

Zjedz albo ciebie zjedzą

Ekolodzy mogą dużo powiedzieć o zależnościach w przyrodzie ("zjedz albo będziesz zjedzony"). Te same zasady w odniesieniu do ludzi i środowiska komputerowego wprowadza nowe złośliwe oprogramowanie o nazwie Popcorn Time. Podobne jak osławione klony Cryptolockera szyfruje pliki i potem żąda okupu za ich odszyfrowanie. Oferuje jednak opcję odszyfrowania za darmo jeśli zarazisz dwóch znajomych (lub nieznajomych) i oni okup zapłacą. Kinomaniacy pewnie znają film "It Follows" ("Coś za mną chodzi"). Coś w tym jest.
Nie daj się zjeść, zadbaj o ochronę swojego komputera. Regularnie wykonuj kopie bezpieczeństwa na nośniki offline, by wirus nie dał rady ich nadpisać.

środa, 23 listopada 2016

Dlaczego telefon stacjonarny jest bezpieczniejszy

Odpowiem w punktach.
Po pierwsze wiele połączeń w telefonii komórkowej nadal jest realizowanych przez sieć 2G *). Wywodzi się ona z początków cyfrowej telefonii komórkowej. Wobec mocy obliczeniowej dzisiejszych komputerów (przestarzały algorytm szyfrujący) oraz prostoty ataków (użycie fałszywej stacji bazowej wykorzystujące brak uwierzytelnienia sieci przez telefon), można powiedzieć, że GSM nie zapewnia już ani poufności, ani bezpieczeństwa przed atakami na poziomie zorganizowanej grupy hakerskiej. Wobec graczy sponsorowanych przez agencje rządowe obcych krajów GSM jest całkowicie bezbronny.

Po drugie przy komunikacji międzyoperatorskiej używany jest protokół SS7, którego słabości są powszechnie znane. Ten protokół nie był projektowany pod kątem bezpieczeństwa transmisji, ale oczekiwanej funkcjonalności. Dopiero teraz operatorzy wprowadzają zabezpieczenia, które mają na celu odfiltrowanie niepoprawnych komunikatów wymienianych tą drogą. O skali problemu opowiadali specjaliści Orange podczas dzisiejszego wystąpienia na konferencji Advanced Threat Summit:
Pragnę zwrócić uwagę na to, że krajem, z którego pochodziło najwięcej najbardziej różnorodnych błędnych lub fałszywych komunikatów SS7 kierowanych do urządzeń w sieci Orange (globalnego, także francuskiego) za pomocą SS7 była Wielka Brytania. Ataków z Rosji lub USA było bardzo mało.
Jak to wygląda przy klasycznej telefonii lub dobrze wdrożonym VoIP? Gdy spytałem o skalę problemu w sieciach stacjonarnych otrzymałem odpowiedź, cytuję:
- większość omawianych zagrożeń w SS7 dotyczy mobilności użytkownika, zatem nie są one tak istotne w sieciach stacjonarnych.
Zatem stary telefon stacjonarny nie jest wcale taki zły. Dodatkowa lektura podsumowująca z konferencji BlackHat z 2001r (!) - uwaga na plik pptx.

Po trzecie telefon stacjonarny ma dodatkową zaletę - emisja promieniowania elektromagnetycznego ze słuchawki na kablu wynosi zero. Tak jest. SAR=0W/kg. Telefony bezprzewodowe DECT należy traktować tak samo, jak komórkowe, nawet jeśli emisja samej słuchawki deklarowana przez producenta jest stosunkowo niewielka. Obok siebie masz przecież bazę, która nadaje prawie cały czas (wyjątek: stacje Gigaset przełączone w odpowiedni tryb pracy).

Dodatkowo telefony stacjonarne też mają swój urok. Solidny, stary kawał elektrotechniki.
Na zdjęciu - interkom (czyli telefon wewnętrzny) używany na okręcie podwodnym.

*) wyjątkiem jest Japonia. Tam nie ma już sieci 2G. W kwietniu przyszłego roku sieci GSM wyłączone będą w Singapurze. Mimo to nadal możemy się spodziewać długiego wykorzystywania 2G. Jak podaje GSM Alliance nadal 58,5% połączeń na świecie wykonuje się właśnie z sieci GSM/2G, a 32,5% - z sieci UMTS/3G. Eksperci uważają, że 2G będzie dominującą technologią aż do roku 2019. Użytkownicy Nokii 6310i mogą spać spokojnie jeszcze przez kilka lat.

piątek, 18 listopada 2016

Miniaturyzacja i postęp techniki

Dziś zostałem poproszony o podanie przykładu, który dobitnie przedstawi postęp techniki. Chyba najbardziej oczywistym przykładem będzie centrala telefoniczna. Oto pomieszczenie centrali #Pentaconta #PC1000C w Wałbrzychu przy ul. Długiej.
Niestety PC1000C nie można obejrzeć nawet w muzeum, bo żadna taka centrala nie zachowała się w kraju. Wszystkie zostały zezłomowane na przełomie wieków, gdy ostatecznie pożegnaliśmy elektromechaniczną komutację w sieci TPSA. Centrala Pentaconta była szczytem możliwości elektromechanicznej komutacji. Archiwalne zdjęcia można obejrzeć na tej stronie

A tutaj pożegnanie małej centrali tego systemu, zlokalizowanej w Leszczynach:
Obecnie z telefonami VoIP dla tej liczby abonentów poradzi sobie Asterisk na moim laptopie. Centrale, którymi dziś administruję obsługują o wiele więcej numerów niż wałbrzyska PC1000C i wszystkie razem mogłyby się zmieścić w jednej szafie przemysłowej. Nie będę wstawiać zdjęć, mogę tylko powiedzieć, że jest to klaster standardowych rackowych serwerów jednego z najważniejszych producentów w branży.
Tylko tak zwanego "telewizorka" z lampkami nie ma. Klimat nie ten.
Źródło - jest tu.

niedziela, 13 listopada 2016

Historia rewolucji w druku


Jedną z dziedzin techniki, która uległa tak znaczącym zmianom w miarę rozwoju elektroniki był druk. Cała ta rewolucja w druku zaczęła się w latach siedemdziesiątych i ostatecznie zakończyła w latach dziewięćdziesiątych. Miejsce składu ręcznego (ręczne umieszczanie czcionek w wierszowniku) i maszynowego gorącego (np. odlewanie całego wiersza na linotypie) zajął skład komputerowy w edytorze tekstu, a następnie łamanie za pomocą oprogramowania komputerowego. Rewolucja ta spowodowała niemal całkowity zanik typografii, czyli druku bezpośredniego wypukłego z użyciem czcionek. Zaczniemy zatem od typografii.

Kaszty pełne skarbów 

Większość publikacji (książki, gazety, ulotki) drukowano z użyciem czcionek. Każda drukarnia miała różne zestawy (kroje, stopnie) czcionek, ale zazwyczaj używano kilku z nich. W odróżnieniu od dzisiejszego oprogramowania, czcionek metalowych, odlanych ze stopu drukarskiego (ołów, antymon, cyna) nie można było skalować i jeden komplet służył do druku konkretnym krojem.

Schemat czcionki - Mała Encyklopedia Techniki, 1960r.

Dziś wystarczy zainstalować font w systemie i można już pracować, ale w czasach ręcznego składu, metalu i farby każdy rodzaj czcionki trzeba było odlać w formach w fabryce (giserni) i dostarczyć do drukarni, gdzie każdą literę czcionki wkładano do kaszty (szuflady), do właściwej przegródki zwanej króbką. Tak umieszczano czcionki w kaszcie warszawskiej:

Warto zwrócić uwagę na to, że przy składzie ręcznym powszechnie stosowano ligatury, czyli dwie litery połączone w jedną (na przykład fi drukowane jak jedna litera, kropka na i łączy się z elementem litery f).

Oto przykładowe rodzaje pisma – cytuję za „Małą Encyklopedią Techniki” z 1960r.
Dziś Antykwa Półtawskiego jest dostępna także w formie elektronicznej. Obecnie antykwę Półtawskiego wykorzystuje się niemal wyłącznie w tytułach oraz niektórych drukach akcydensowych (o niewielkim nakładzie) stylizowanych na druk przedwojenny.
Inne czcionki charakterystyczne dla starszej polskiej typografii można obejrzeć na tej stronie.

Duże, małe...  

Rozmiar czcionki, czyli jej stopień określano w punktach – właśnie stąd powstała tak popularna czcionka dwunastka, miała ona rozmiar 12 pkt typograficznych. Tradycyjnie każdy stopień miał swoją nazwę, najmniejsza używana w popularnym druku czcionka miała stopień 6 i nosiła nazwę nonparel. Stąd powstało określenie "napisać nonparelem" - napisać coś bardzo małą czcionką.


Były jeszcze mniejsze czcionki: perl (5pkt), diamant/diament (4pkt) i brylant (3pkt) - im mniejsze, tym "droższe". Teraz wiecie dlaczego małą czcionką drukowane są bardzo ważne informacje w umowach handlowych i bankowych...

Z kaszty do arkusza


Tekst źródłowy, dostarczony w formie maszynopisu był składany przez zecera z czcionek pobieranych z kaszty i układanych w wierszowniku (dawniej zwanym winkelakiem), ustawionym na odpowiednią szerokość.
Skład ręczny, ilustracja z Małej Encyklopedii Techniki, 1960r.

Wiersze złożone jeden nad drugim tworzyły kolumnę, a kolejne kolumny – arkusz. Tekst w wierszach był łamany, czyli tak umieszczany, by utworzył kolumny o równej szerokości, z miejscem na ilustracje oraz inne elementy. Puste miejsca wypełniało się pustym tzw. ślepym materiałem (justunkiem) i całość ściskało w metalowej ramie. Uzupełnieniem wiersza do ostatecznej szerokości był drobny justunek (półfiret, firet, oraz spacje), który również znajdował się w kaszcie. Układem wierszy na stronie zajmował się doświadczony zecer, nazywany metrampaż (z francuskiego - metteur en pages - składający w strony).
Metrampaż przy pracy.
 
Proces składu i łamania publikacji był niezwykle pracochłonny, sporo było tam miejsca na ludzki błąd. Po złożeniu tekstu, na prostej prasie wykonywano odbitkę do korekty, by poprawić ewentualne błędy. Czasami błędy wychwytywano już po wydrukowaniu nakładu, a wtedy jedynym sposobem poprawy tego błędu było szybkie wydrukowanie erraty – spisu błędów razem z ich poprawą. Erratę drukowano na końcu.


Typografia nie zginęła

Wbrew pozorom mechanizacja ani komputeryzacja nie zabiły całkiem typografii. Ostatnie drukarnie z ręcznym składem działały na pokładzie dalekomorskich statków i w więzieniach jeszcze w latach osiemdziesiątych. Obecnie nadal drukuje się akcydensy z użyciem metalowych czcionek, składanych przez zecera. Są to jednak dzieła, które należy traktować bardziej jako sztukę druku użytkowego niż jako środek publicznej komunikacji.


Pierwsza mechanizacja

Niezwykle pracochłonny skład ręczny dość szybko udało się zastąpić składem maszynowym (gorącym), w którym z roztopionego stopu drukarskiego w odpowiedniej maszynie odlewano całe wiersze. Od tego czasu w większych drukarniach skład ręczny stosowano tylko przy drukach akcydensowych, skomplikowanych formułach matematycznych i chemicznych oraz przy trudnych tabelach. Metrampaż jest jednym z zawodów zaginionych, chociaż część wiedzy dobrego zecera posiadają doświadczeni operatorzy DTP. O składzie mechanicznym z użyciem linotypu opowiem w następnym odcinku.

niedziela, 6 listopada 2016

Komputer Karpińskiego – fakty i mity


Gdyby porównać wszystkie komputery kiedykolwiek wyprodukowane w kraju pod względem mitów narosłych wokół ich konstrukcji, liderem byłby minikomputer K-202 konstrukcji inżyniera Jacka Karpińskiego. Opisy te bywają pisane dość martyrologicznym językiem, zawierają mnóstwo nieścisłości i przekłamań. Nawet etykieta opisująca komputer w warszawskim Muzeum Techniki ma taki ton. Gdzie zatem może być ta prawda? Odpowiedź jest prozaiczna – najprędzej znajdziemy ją w Archiwum Akt Nowych, a także w dokumentach sekcji historycznej Polskiego Towarzystwa Informatycznego i we wspomnieniach osób, które tworzyły historię komputerów PRL.


Jaki naprawdę był K-202?

Komputer K-202, zbiory Muzeum Techniki w Warszawie.
To była maszyna, która odzwierciedlała światowe trendy i rzeczywiście była skonstruowana zgodnie z najlepszymi zasadami. Bez wątpienia był to pierwszy, wręcz pionierski minikomputer w Polsce. Analizy prowadzone przez kilka komisji, w tym dość słynną komisję Ministerstwa Przemysłu Maszynowego powołaną przez ministra A. Kopcia oraz osobny raport A.Kilińskiego potwierdzają to w całej rozciągłości. To była bardzo dobra maszyna, na światowym poziomie, pierwsza taka w kraju. Nie oznacza to jednak, że była przełomowa w skali światowej, bo takie cechy, jak stronicowanie pamięci i praca wieloprocesorowa, były znane i wykorzystywane od dziesięciu lat. Nie był to najwydajniejszy komputer w kraju, ale był bardzo elastyczny i nieźle skalowalny jak na urządzenie tej klasy.

Problematyczna nisza

Niestety komputer J. Karpińskiego był obarczony ciężkim bagażem niszy technologicznej, gdyż był maszyną niezgodną z najpopularniejszym wtedy minikomputerem na świecie: serią PDP-11 firmy Digital Equipment Corporation. Oczywiście z czasem napisano oprogramowanie na K-202, ale całość nigdy nie wyszła poza stadium krótkoseryjnej produkcji. Według bardzo optymistycznych planów J. Karpińskiego przesłanych w liście do J.Szydlaka w ciągu 5 lat zaplanowano wyprodukowanie około 2000 tych komputerów. Tymczasem samych PDP-11 wyprodukowano około 600 tysięcy, poprzednia generacja PDP-8 sprzedała się w liczbie 50 tys sztuk. Mówimy tylko o tym jednym zagranicznym producencie szesnastobitowego komputera. K-202 był niewątpliwie maszyną dobrą, ale niszową, na którą dopiero opracowywano nowoczesne oprogramowanie. Sporą część aplikacji pisano w asemblerze ASSK, dopiero później pojawiły się aplikacje pisane w FORTRANIE, ALGOLu czy za pomocą MOST-2. Dla porównania – na PDP-11 napisano mnóstwo oprogramowania, był na niego dostępny także najpopularniejszy system operacyjny na świecie – UNIX.


Dlaczego K-202 nie podbił kraju?

Wbrew powszechnie roztaczanym mitom K-202 wcale nie został zniszczony, bo konkurował wprost z ODRĄ lub RIADem. Konstruktorzy tego komputera wprost planowali jego współpracę z dużymi maszynami, co oczywiście ma sens, także z dzisiejszej perspektywy. Przyczyna porażki rynkowej K-202 była związana z socjalistyczną gospodarką niedoboru i powszechnymi problemami z dostępnością zasobów, w tym podzespołów elektronicznych. Proces inwestycyjny był skomplikowany i kosztowny, a do tego rozległy, bo wymagał budowy osobnego zakładu (nie było gdzie rozpocząć wielkoskalowej produkcji tego komputera). Ponadto komputer K-202 został zaprojektowany z użyciem zagranicznych podzespołów z drugiego obszaru płatniczego. Tak zwany wsad dewizowy (przypomnę – w tym czasie złotówka nie była walutą wymienialną, przelicznik zł/USD był bardzo niekorzystny) wynosił 1900 USD na sztukę w przypadku serii informacyjnej, a zatem w warunkach polskich był to drogi komputer o małych rozmiarach.
Moduł pamięci komputera K-202,
jest to płyta firmy Core Memories (USA/Dublin),
w module znajdują się układy scalone firmy Motorola.
Podobnie jak w przypadku pozostałych maszyn z tej epoki, K-202 wymagał osobnych urządzeń peryferyjnych, takich jak terminale, napędy taśm magnetycznych, monitory ekranowe, multipleksery, perforatory i czytniki taśmy papierowej, przetworniki analogowo-cyfrowe oraz modemy (w późniejszym etapie). Oczywiście peryferia jeszcze bardziej podnosiły koszty. Dość często porównywano wsad dewizowy K-202 z kompletną ODRĄ, co jest nie na miejscu, gdyż ODRĘ wdrażano z pojemnymi pamięciami taśmowymi, ponadto do tych komputerów zakupiono także licencje na oprogramowanie, w tym system operacyjny GEORGE - a była to szczególnie mocna strona tego komputera.

Sam K-202, chociaż mógł działać po dołączeniu terminala wierszowego, pełnię swoich możliwości pokazywał po integracji z dodatkowymi modułami i urządzeniami. Przykładowy „zestaw dla prac projektowo-inżynierskich” (strona czwarta ulotki informacyjnej) wymagał dołączenia CPU K-202 16k z dwoma modułami RAM 16k oraz modułami wejścia/wyjścia. W praktyce planowano także o wiele bardziej skomplikowane instalacje z więcej niż jednym CPU (K-202 był od początku projektowany pod kątem właśnie takich instalacji).

Oto przykładowy komputer dla automatyzacji pomiarów CAMAC oznaczony znakiem Polon wyposażony w trzy jednostki K-202, dwa moduły pamięci masowej oraz karty do obsługi urządzeń peryferyjnych.



Instalacja K-202 w zastosowaniach pomiarowych
standardu CAMAC, trzy CPU, dwa moduły pamięci,
moduł kart pomiarowych.
Zbiory Muzeum Techniki w Warszawie.
Warto zwrócić uwagę na wykonanie urządzeń peryferyjnych – jest to sprzęt o bardzo dobrej konstrukcji mechanicznej, wyprodukowany zgodnie z najlepszymi zasadami. Śmiem twierdzić, że dzisiejsze konstrukcje automatyki przemysłowej i niektóre urządzenia laboratoryjne są zaprojektowane z mniejszą starannością o szczegóły od tego komputera!

Moduł kart pomiarowych.

Cięcie kosztów i następca K-202

Po wyprodukowaniu serii informacyjnej należało niezwłocznie obniżyć koszty. Zastosowano zatem podzespoły wyprodukowane w kraju, kosztem znacznie większych rozmiarów całego komputera i urządzeń peryferyjnych. Powstała w ten sposób maszyna MERA 400 mogła współpracować z większymi komputerami, takimi jak Odra (na licencji ICL) oraz RIAD (który de facto był mainframem zgodnym z IBM 360, zbudowanym w krajach RWPG na podstawie ogólnie dostępnej dokumentacji firmy IBM *) ). Komputery tej serii, wyposażone w sporo kart rozszerzeń pracowały przy automatyce przemysłowej przez następne dwie lub nawet cztery dekady. W piśmie z 30.12 2014 nadesłanym do Jarosława Krawczyka (red. naczelny periodyku Mówią Wieki), Jerzy S. Nowak pisze o komputerach MERA 400, że „są urządzenia pracujące do dziś”. Duch i pomysł J. Karpińskiego wcale nie zaginął, jego konstrukcja również.

Non omnis moriar

Idee Jacka Karpińskiego znalazły odzwierciedlenie w innym komputerze, który zyskał pewną popularność. Był nim następca K-202, czyli MERA 400. Komputer ten został przekonstruowany tak, by użyć jak najwięcej podzespołów krajowej produkcji. Opracowano także nowe peryferia, rozpoczęto prace nad możliwie szybkim opracowaniem różnego oprogramowania użytkowego dla tej platformy. Niektóre egzemplarze pracowały ponad 40 lat, szczególnie przy automatyzacji różnych pomiarów w standardzie CAMAC (IEEE 583).
Pulpit sterowania komputera MERA 400.
Widać wyraźne podobieństwo do K-202.
*) Epoka Gierka była jedynym okresem w PRL, gdy kupowaliśmy, wdrażaliśmy i eksploatowaliśmy najnowsze komputery produkowane w tym czasie przez firmę IBM. Oprócz później produkowanych maszyn RIAD, w polskich firmach działały komputery IBM. Były to najnowsze modele razem z dobrym oprogramowaniem. Były kosztowne, ale na pewno był to opłacalny zakup. Polecam lekturę tekstu, który napisałem dwa lata temu: "Gdy w PRL były najnowsze mainframe'y".

poniedziałek, 31 października 2016

Zaginiona technologia: piśmiennictwo

Czy wiecie co to był letraset, kalgraf albo propisot?
Gdy nie było komputerów i superprecyzyjnych drukarek, jedynym sposobem opisania rysunków i wykresów robionych na brystolu było właśnie takie coś. Była to kalkomania, która za pomocą suchego transferu umożliwiała precyzyjne wstawienie doskonale wydrukowanych liter.
Robiło się to tak:
Nakładało się arkusz kalkomanii nad rysunkiem, po ustawieniu literek we właściwym miejscu, należało za pomocą długopisu lub podobnego narzędzia przecisnąć (przeszorować) literkę na papier. Potem następną i następną, aż cały napis znalazł się we właściwym miejscu. Na rynku były przynajmniej trzy takie kalkomanie - oryginalny Letraset (mnóstwo fajnych czcionek, drogi), polski Kalgraf oraz czeski Propisot. Najbardziej podobały mi się niektóre arkusze polskiej kalkomanii Kalgraf z racji na linię, która ułatwiała umieszczanie literek na miejscu:

Arkusz wyglądał tak:
Polska kalkomania Kalgraf miała nawet swoją normę branżową BN-77 7414-01/01.

Można znaleźć nawet patent opisujący sposób wytworzenia takiej kalkomanii (zgłoszenie numer 87649 patent nr 167862 zgłoszony dnia 31.12.1973). Były one produkowane w Zjednoczonych Zakładach Ceramiki Stołowej CERPOL oraz Wałbrzyskich Zakładach Graficznych "Kalkomania".

Dziś arkusz takiej kalkomanii jest praktycznie nie do zdobycia. Pan sprzedawca w zaprzyjaźnionym sklepie papierniczym powiedział, że ostatni arkusz letraseta sprzedał 15 lat temu, od tego czasu nie było ani popytu, ani podaży.
Wprowadzenie drukarek i ploterów oraz odpowiedniego oprogramowania sprawiło, że kalkomanie literowe odeszły do lamusa. Podobnie, jak wiele technologii analogowych.

czwartek, 27 października 2016

Tam, gdzie nie sięga Internet

Jest takie miejsce na Ziemi, o którym mówią, że ludziom najbardziej dokucza brak świeżego powietrza i Internetu. To Norylsk. Mieszka tam prawie 200 tys ludzi i w okolicy znajduje się olbrzymi przemysł metalurgiczny (w pojedynczym przedsiębiorstwie Norilsk Nikiel pracuje 70 tys ludzi), ciekawy reportaż można przeczytać tutaj. Oto często wstawiana panorama (tutaj z geekweek) smutnego miasta z widokiem na kombinat:
W tym mieście 1Gbit transferu miesięcznie kosztuje 700 rubli (obecnie ok 50zł), po przekroczeniu limitu 1Mbit kosztuje 1 RUR. Najwyższy abonament zawiera 16Mbit, w dzisiejszego kursu kosztuje 200zł i nie ma całodobowych ofert bez ograniczeń transferu (za darmo jest od 2:00 do 8:00). Oto oferta MTS Norylsk.
Całe miasto korzysta wyłącznie z łącza satelitarnego.
Mało kto wie, że podobne problemy z dostępem do Internetu można spotkać w Kanadzie!
W kanadyjskiej miejscowości Nunavut łącza internetowe są jeszcze droższe niż w Norylsku. Mieszkańcy tego miasta korzystają z Internetu w ten sposób, że materiały zajmujące większe pasmo są nagrywane na nośniki USB i wysyłane pocztą. Co sprytniejsi łączą się przez zdalny pulpit na komputer zlokalizowany w innej części Kanady (Calgary, Toronto), tam pobierają co trzeba i zapisują na pendrajwa. Rodzina w uzgodnionym czasie po prostu odpina pendrajwa i wysyła go pocztą. W wolny port wkłada się nowy nośnik, który w tym czasie zdążył wrócić z powrotem z dalekiej północy. W ten sposób da się nawet oglądać filmy na Netfliksie.
Oczywiście zawsze można sobie jakoś poradzić, ale problem jest znacznie poważniejszy, niż tylko odcięcie ludzi od Netfliksa i YouTube'a. Cała północ Kanady jest połączona  za pomocą jednego satelity Anik F2. Jego awaria spowodowała odcięcie podstawowych usług, takich jak bankomaty, telefony, banki, a nawet kontrola lotów. Na północy nie było żadnego alternatywnego łącza. Tam nie ma światłowodu.
Rok temu, na poprzednim blogu opisywałem sieć telekomunikacyjną White Alice oraz jej radziecki odpowiednik - TRRL Siewier.

Oto fragmenty tego opisu:

Jedna ze stacji sieci White Alice.
W odludnych terenach północnej Kanady, Alaski lub na bezkresie Syberii przeprowadzenie kabli nie było ani łatwym, ani tanim zadaniem. Obie potęgi (USA i ZSRR) wybudowały zatem sieć łączności troposferycznej (troposcatter), w której stacje przekaźnikowe były rozmieszczone w odstępie od 100 do 400km. Amerykańska sieć zbudowana pod koniec lat sześćdziesiątych była nazywana „Białą Alicją” – White Alice, radziecki system nosił nazwę Siewier. Na terenie krajów bloku wschodniego, w tym Polski, była osobna sieć o nazwie BARS przeznaczona wyłącznie do celów militarnych.


 Zarówno Biała Alicja, jak i Siewier były sieciami militarnymi, które jednocześnie umożliwiły zestawianie połączeń głosowych i dysponowały transmisją danych (radiolinie R-412M obsługiwały 6 kanałów po 9,6kBit każdy, Alicja miała większą przepustowość). Chociaż dziś wydaje się to bardzo mało, na owe czasy było to szybkie łącze.

Anteny sieci TRRL Siewier. Fot. Ralph Mirebs.
Łączność satelitarna sprawiła, że wielkoobszarowe systemy łączności troposferycznej stały się przestarzałe dla celów militarnych już pod koniec lat siedemdziesiątych, chociaż radziecka sieć działała jeszcze w latach dziewięćdziesiątych. Amerykanie ostatecznie całkiem zdemontowali stacje Białej Alicji (mieli przy tym problemy związane z ochroną środowiska), Rosjanie część stacji usunęli, resztę zostawili – w kilku miejscach wielkie anteny górują nad tundrą do dziś.


Niedawna awaria satelity telekomunikacyjnego w Kanadzie dopisała kolejny rozdział do rozważań na temat łączności cyfrowej na świecie. Satelity wcale nie są tak niezawodne, jak się na pozór sądzi.