GSM, 3G, 4G, 5G: jak mobilna rewolucja zmieniła sposób korzystania z sieci

0
84
3/5 - (2 votes)

Nawigacja:

Od telefonii analogowej do GSM: punkt zwrotny w komunikacji mobilnej

Sieci 1G – ograniczenia i problemy pierwszej generacji

Pierwsze sieci komórkowe, nazywane 1G, były w pełni analogowe. Służyły wyłącznie do prowadzenia rozmów głosowych. Nie było SMS-ów, danych ani Internetu, a sama jakość połączeń często pozostawiała wiele do życzenia.

Najważniejsza cecha 1G to brak jednego, wspólnego standardu. Każdy kraj, a czasem nawet region, miał własną technologię. Utrudniało to rozwój rynku, podnosiło koszty i blokowało swobodny roaming między państwami. Użytkownik wyjeżdżający za granicę zazwyczaj tracił łączność, bo jego telefon nie obsługiwał tamtejszej sieci.

Sieci analogowe miały też poważne problemy z bezpieczeństwem. Rozmowy można było stosunkowo łatwo podsłuchać przy użyciu prostego sprzętu radiowego. Kradzież tożsamości abonenta polegała często na skopiowaniu numeru urządzenia i wykorzystaniu go do wykonywania połączeń na koszt właściciela.

Ograniczona była też pojemność sieci. W miastach szybko okazywało się, że liczba dostępnych kanałów głosowych nie wystarcza. W godzinach szczytu abonenci nie mogli nawiązać połączenia, bo wszystkie zasoby radiowe były zajęte. Pierwsza generacja mobilności była więc technologiczną ciekawostką, użyteczną głównie dla biznesu, służb i zamożnych klientów.

Narodziny standardu GSM w Europie

Na tle tego chaosu zaczęła dojrzewać potrzeba jednego, wspólnego standardu cyfrowej telefonii komórkowej. W Europie kluczową rolę odegrała organizacja CEPT, a później ETSI, które koordynowały prace nad nowym rozwiązaniem. Celem było stworzenie spójnego systemu, w którym abonent z dowolnego kraju Unii Europejskiej będzie mógł bez problemu korzystać z telefonu w innych państwach.

Prace ruszyły w latach 80. Nazwę GSM początkowo rozwijano jako Groupe Spécial Mobile. Z czasem, wraz z umiędzynarodowieniem standardu, przyjęto znaczenie Global System for Mobile Communications. Nowy system miał być cyfrowy, bezpieczniejszy i znacznie bardziej wydajny radiowo od sieci 1G.

Ważnym założeniem był także rozdział między urządzeniem (telefonem) a tożsamością abonenta. Stąd pomysł karty SIM, którą można łatwo przełożyć do innego aparatu. Ułatwiło to rozwój rynku i powstanie modelu, w którym klient sam wybiera urządzenie, a operator dostarcza jedynie usługę i kartę.

Pierwsze komercyjne sieci GSM w Europie ruszyły na początku lat 90. W kilku krajach wdrożenia następowały niemal równolegle, co przyspieszało tworzenie rynku masowego. Telefony komórkowe w krótkim czasie przestały być luksusem zarezerwowanym dla nielicznych, choć początkowo nadal kojarzyły się z biznesem i wysokim statusem społecznym.

Telefon komórkowy jako symbol statusu i narzędzie pracy

Telefony GSM początkowo były duże, ciężkie i drogie. Nawet jeśli nie wymagały już „walizki” jak niektóre modele 1G, nadal wyróżniały się gabarytami i ceną. Posiadanie komórki oznaczało często przynależność do świata biznesu. Na ulicach miast można było zobaczyć głównie menedżerów i przedstawicieli handlowych rozmawiających w charakterystyczny sposób z podniesionym do ucha „cegłofonem”.

Jednocześnie telefon zaczynał zmieniać sposób organizacji pracy. Zamiast umawiania się na sztywno „o 15:00 pod biurem” można było dzwonić, gdy tylko klient był dostępny. Przedstawiciel sprzedaży nie musiał wracać do biura, by odebrać wiadomości – był osiągalny w drodze. Elastyczność czasu i miejsca kontaktu zaczynała rosnąć.

W kolejnych latach, wraz ze spadkiem cen aparatów i usług, telefon komórkowy zaczął wchodzić do domów zwykłych użytkowników. Pojawiły się prostsze modele z długim czasem pracy baterii, a abonamenty i karty pre-paid otworzyły rynek na młodzież i osoby mniej zamożne. Komórka przestała być gadżetem, a stała się narzędziem codziennej komunikacji.

Maszt telefonii komórkowej na tle jasnego, niebieskiego nieba
Źródło: Pexels | Autor: Ulrick Trappschuh

Techniczne fundamenty GSM: co naprawdę oznaczało „2G”

Cyfryzacja rozmów i SMS – kluczowy skok jakości

Przejście z sieci analogowej na GSM, czyli 2G, oznaczało pełną cyfryzację transmisji. Rozmowy nie były już przesyłane jako ciągły sygnał analogowy, ale jako zakodowane, skompresowane dane. Pozwoliło to lepiej wykorzystać pasmo radiowe i zwiększyć liczbę jednoczesnych połączeń w komórce sieci.

Cyfryzacja umożliwiła stosowanie mechanizmów szyfrowania. W GSM wprowadzono algorytmy, które utrudniały podsłuch rozmów i klonowanie abonentów. Choć z czasem znaleziono luki w tych zabezpieczeniach, sam kierunek był przełomowy: prywatność użytkownika przestała być iluzją, a stała się jednym z głównych parametrów systemu.

Elementem, który na zawsze zmienił sposób komunikacji mobilnej, był SMS. Początkowo traktowany jako usługa pomocnicza do celów technicznych sieci, szybko stał się hitem. Krótkie wiadomości tekstowe pozwalały komunikować się taniej niż przez rozmowę, szczególnie w ofertach przedpłaconych i dla młodych użytkowników.

SMS zaczął kształtować nowy język. Powstały skróty, emotikony, uproszczone formy wypowiedzi. Umówienie spotkania, przekazanie szybkiej informacji, powiadomienia bankowe – wszystko to przeniosło się do kilkudziesięciu znaków na małym ekranie telefonu. Komunikacja stała się bardziej asynchroniczna i mniej inwazyjna niż rozmowa głosowa.

Jak działa architektura sieci GSM – prosty podział ról

Sieć GSM składa się z kilku podstawowych elementów, które wspólnie realizują połączenia, SMS-y i zarządzanie użytkownikami. Od zrozumienia tej architektury łatwiej prześledzić późniejszą ewolucję do 3G, 4G i 5G.

Najbliżej użytkownika znajduje się BTS (Base Transceiver Station) – stacja bazowa. To dobrze znane maszty i anteny na budynkach. BTS odpowiada za komunikację radiową z telefonami w określonej komórce sieci. Obszar kraju pokryty jest setkami lub tysiącami takich komórek.

Kilka, kilkanaście lub kilkadziesiąt stacji BTS obsługuje BSC (Base Station Controller). To urządzenie koordynuje przydzielanie zasobów radiowych, przełączanie użytkownika między komórkami podczas ruchu, a także zarządza sygnalizacją na poziomie radiowym. BSC jest pośrednikiem między stacjami bazowymi a rdzeniem sieci.

W rdzeniu działa MSC (Mobile Switching Centre), czyli centralna jednostka komutacji. To tutaj zestawiane są połączenia telefoniczne, kierowane SMS-y i realizowany jest dostęp do sieci innych operatorów. MSC odpowiada również za współpracę z tradycyjną siecią telefoniczną (PSTN).

Informacje o abonentach przechowywane są w bazach HLR (Home Location Register) i VLR (Visitor Location Register). HLR zawiera dane „domowe” użytkownika, takie jak numer telefonu, usługi i główny operator. VLR przechowuje dane tymczasowe, potrzebne do obsługi abonenta zalogowanego w danej strefie sieci, w tym w roamingu zagranicznym.

Karta SIM – identyfikacja abonenta i swoboda urządzeń

Jednym z najpraktyczniejszych wynalazków GSM jest karta SIM (Subscriber Identity Module). Zawiera ona kluczowe informacje identyfikujące abonenta, m.in. numer IMSI i klucze kryptograficzne. Dzięki temu operator wie, który użytkownik korzysta z danego urządzenia, a autoryzacja i naliczanie opłat odbywa się niezależnie od konkretnego telefonu.

Możliwość przełożenia karty SIM z jednego aparatu do innego zmieniła rynek urządzeń. Klient nie był już przywiązany na stałe do telefonu dostarczonego przez operatora. Mógł samodzielnie kupić nowy model, przełożyć kartę i od razu działać. To otworzyło drogę do szybkiej innowacji sprzętowej i silnej konkurencji między producentami.

Karta SIM została też nośnikiem dodatkowych funkcji. Pierwsze proste aplikacje SIM Toolkit pozwalały na obsługę prostych usług, jak doładowania pre-paid czy dostęp do informacji. Z perspektywy mobilnej rewolucji ważniejsze było jednak to, że SIM stał się „paszportem” do sieci komórkowej i podstawą późniejszych mechanizmów roamingu.

Granice możliwości 2G: GPRS, EDGE i brak prawdziwego Internetu

GSM w pierwotnej wersji był projektowany głównie do obsługi rozmów i SMS-ów. Transmisja danych była traktowana pomocniczo i realizowana w sposób nieefektywny. Użytkownicy mogli korzystać z usług przypominających modemowe połączenie wdzwaniane, ale szybkość i koszt były mało atrakcyjne.

Problemy te próbowały rozwiązać technologie GPRS i później EDGE, często nazywane 2.5G i 2.75G. Wprowadziły one pakietową transmisję danych, bliższą temu, jak działa Internet. Prędkości nadal były jednak ograniczone, a opóźnienia wysokie. Strony WWW ładowały się wolno, a bardziej zaawansowane usługi multimedialne były nierealne.

GPRS i EDGE przygotowały jednak grunt pod mentalną zmianę. Użytkownicy oswoili się z ideą, że telefon komórkowy może łączyć się z siecią nie tylko do wysłania SMS czy poczty, ale także do przeglądania stron lub prostych aplikacji. Operatorzy zaczęli wprowadzać taryfy danych, rosnąć zaczął też apetyt na „prawdziwy mobilny Internet”.

Maszt telefonii komórkowej zamaskowany jako palma na tle błękitnego nieba
Źródło: Pexels | Autor: Durgesh Kumar

Od głosu do danych: 3G i obietnica mobilnego Internetu

IMT-2000 i globalna wizja trzeciej generacji

Międzynarodowa Unia Telekomunikacyjna (ITU) opracowała koncepcję IMT-2000 jako parasolowego standardu trzeciej generacji sieci komórkowych. Celem była globalna łączność, znacznie wyższe prędkości transmisji oraz obsługa multimediów, takich jak wideo i usługi interaktywne.

Założono, że 3G ma umożliwić swobodny roaming między kontynentami oraz elastyczną obsługę różnych pasm częstotliwości. Kluczowe parametry dotyczyły prędkości danych – od kilkuset kilobitów na sekundę do kilku megabitów dla użytkownika w ruchu. W tamtym czasie oznaczało to jakościowy przeskok względem GPRS/EDGE.

W ramach IMT-2000 dopuszczono kilka rodzin technologii. W praktyce ukształtowały się dwa najważniejsze kierunki: UMTS/WCDMA jako ewolucja GSM w Europie i dużej części świata oraz CDMA2000, rozwijany głównie w Ameryce Północnej i części Azji. Oba podejścia korzystały z technologii dostępu CDMA, choć w różny sposób.

UMTS w Europie i CDMA2000 w innych regionach

Europa, z silną bazą użytkowników GSM, naturalnie skierowała się w stronę UMTS (Universal Mobile Telecommunications System). UMTS został zaprojektowany tak, by zachować jak największą zgodność z systemami 2G – szczególnie w zakresie sygnalizacji i integracji sieci rdzeniowej. Ułatwiało to operatorom płynne przejście i współistnienie 2G/3G.

UMTS wykorzystywał szerokopasmowy dostęp radiowy WCDMA. Zamiast dzielić pasmo na wąskie kanały, jak w GSM, każdy użytkownik zajmował szerokie pasmo, a separacja odbywała się kodami. Z technicznego punktu widzenia zwiększało to możliwości przepustowe, ale wymagało nowych typów stacji bazowych i bardziej zaawansowanej optymalizacji sieci.

W Ameryce Północnej i w części Azji istotną rolę odegrał standard CDMA2000. Był on rozwinięciem wcześniejszych systemów CDMA 2G i w pewnym sensie alternatywą dla ścieżki GSM–UMTS. Mimo wielu zalet technicznych, brak globalnej unifikacji standardów i ograniczona dostępność terminali sprawiły, że w dłuższej perspektywie to linia ewolucji GSM/UMTS/LTE zdominowała rynek.

Przetargi na częstotliwości 3G i ich wpływ na rozwój

Wdrożenie 3G wymagało nowych częstotliwości. Państwa zaczęły organizować przetargi na pasma, takie jak 2,1 GHz. W niektórych krajach licencje przyznawano w drodze aukcji, windując ceny do bardzo wysokich poziomów. Operatorzy zadłużali się, by zdobyć prawo do świadczenia usług 3G.

Takie podejście miało konsekwencje. Znaczna część kapitału została zamrożona w licencjach zamiast w inwestycjach infrastrukturalnych. Rozbudowa sieci 3G postępowała wolniej, szczególnie poza dużymi miastami. Użytkownicy często widzieli logo „3G” w reklamach, ale w praktyce mieli zasięg tylko w kilku punktach metropolii.

W niektórych krajach zdecydowano się na niższe ceny licencji lub inne modele przydziału częstotliwości, licząc na szybszy rozwój usług i konkurencji. Bilans pierwszych lat 3G był jednak mieszany: technologia była obiecująca, ale koszty wdrożenia i problemy rynkowe spowalniały realną transformację.

Pierwsze doświadczenia użytkowników: szybki Internet tylko na papierze

Teoretyczne możliwości 3G wyglądały imponująco na tle GPRS/EDGE. W praktyce pierwsze wdrożenia często rozczarowywały. Telefony były ciężkie, miały krótki czas pracy na baterii i słabe procesory. Systemy operacyjne dopiero raczkowały w kontekście usług internetowych.

Usługi wideo, wideorozmowy i pierwsze portale operatorów

Operatorzy promowali 3G głównie przez pryzmat wideorozmów i mobilnej telewizji. Technicznie było to możliwe, ale małe ekrany, słabe kamery i wysokie ceny transmisji sprawiały, że były to usługi niszowe.

Równolegle budowano portale operatorów z własnymi treściami: skróty wideo, dzwonki, gry, wiadomości. Dostęp do „otwartego Internetu” był często ukryty głęboko w menu, a taryfy opierały się na rozliczaniu kilobajtów. Strach przed rachunkiem skutecznie hamował korzystanie z przeglądarek.

3G zaczęło jednak zmieniać sposób myślenia o telefonie. Urządzenie z wbudowaną kamerą, dostępem do poczty i przeglądarką www nie było już gadżetem dla nielicznych, tylko kierunkiem rozwoju całej branży.

HSPA i HSPA+ – 3.5G jako realny przełom w szybkości

Prawdziwy wzrost użyteczności 3G przyniosły dopiero rozszerzenia HSDPA i HSUPA, razem określane jako HSPA, a później HSPA+. Podniosły one zarówno przepływność, jak i efektywność korzystania z radiowego pasma.

W HSPA zastosowano bardziej zaawansowaną modulację, agresywniejsze planowanie zasobów i szybsze mechanizmy retransmisji. W praktyce użytkownik widział różnicę: strony ładowały się sprawniej, poczta z załącznikami przestała być udręką, a streaming muzyki stał się możliwy bez ciągłego buforowania.

HSPA przedłużyło życie sieci 3G na wiele lat. W wielu krajach, jeszcze po starcie LTE, spora część ruchu danych wciąż przechodziła przez HSPA/HSPA+ – szczególnie tam, gdzie pokrycie 4G budowano stopniowo.

Smartfony, App Store i przesunięcie ciężaru z sieci na aplikacje

Kluczowym katalizatorem wykorzystania 3G były smartfony z prawdziwymi systemami operacyjnymi i sklepami z aplikacjami. iPhone, pierwsze urządzenia z Androidem i rozwój mobilnego Safari czy Chrome zmieniły model korzystania z sieci.

Przestało chodzić o „przeglądanie Internetu w telefonie”, a zaczęło o konkretne usługi: mapy, komunikatory, serwisy społecznościowe, bankowość. Aplikacje przejęły dużą część logiki, komunikując się z serwerami w tle, małymi porcjami danych. Sieć stała się przezrocznym transportem dla API.

Wzrosło też znaczenie optymalizacji treści pod sieci mobilne. Serwisy zaczęły stosować kompresję, wersje „light”, a później aplikacje natywne, aby zmniejszyć opóźnienia i zużycie transferu. 3G z HSPA stworzyło pierwszy masowy ekosystem mobilnych usług online.

Obciążenie sieci 3G i rosnące zapotrzebowanie na pasmo

Smartfony i aplikacje wprowadziły do sieci zupełnie inny profil ruchu. Zamiast kilku SMS-ów i krótkich rozmów pojawiły się ciągłe połączenia danych, synchronizacja w tle i rosnący udział multimediów.

Operatorzy zaczęli dostrzegać, że nawet przy HSPA pojemność sieci 3G szybko się wyczerpuje w gęsto zaludnionych obszarach. Dodawano kolejne nośne, zagęszczano sieć, ale architektura projektowana pierwotnie z myślą o głosie była coraz trudniejsza do skalowania.

Stało się jasne, że kolejna generacja musi stawiać dane na pierwszym miejscu, a głos potraktować jako jedną z usług realizowanych „w IP”, a nie fundament systemu. Tu zaczyna się historia LTE.

Tłum kibiców na stadionie obok baneru reklamowego Lumitel 5G
Źródło: Pexels | Autor: Chris wade NTEZICIMPA

4G / LTE: mobilny Internet staje się domyślnym sposobem korzystania z sieci

Od komutacji łączy do „all-IP” – fundamentalna zmiana paradygmatu

Systemy 2G i 3G miały w swojej strukturze elementy projektowane pod tradycyjną telefonię z komutacją łączy. Dane były w pewnym sensie dodatkiem. LTE (Long Term Evolution) odwróciło tę logikę: wszystko stało się pakietem IP.

W LTE zrezygnowano z warstwy komutacji łączy. Rdzeń sieci to EPC (Evolved Packet Core), obsługujący wyłącznie transmisję pakietową. Nawet połączenia głosowe są docelowo realizowane jako VoLTE – strumień IP z kontrolą jakości usług.

Takie podejście uprościło architekturę i pozwoliło korzystać z dobrze znanych rozwiązań z sieci IP: routingu, tuneli, priorytetyzacji ruchu. Jednocześnie wymusiło pełną integrację mobilnej infrastruktury z Internetem jako takim, a nie tylko z siecią telekomunikacyjną.

OFDMA i MIMO – jak 4G wyciska więcej z tego samego eteru

Na warstwie radiowej LTE wprowadziło dwie kluczowe innowacje: OFDMA w dół (downlink) i SC-FDMA w górę (uplink), a także szerokie wykorzystanie MIMO.

OFDMA dzieli dostępne pasmo na wiele wąskich podnośnych, które można elastycznie przydzielać różnym użytkownikom co kilka milisekund. Pozwala to lepiej dopasować transmisję do warunków radiowych u konkretnego abonenta i zwiększa efektywność wykorzystania częstotliwości.

MIMO (Multiple Input Multiple Output) wykorzystuje wiele anten nadawczych i odbiorczych do równoległego przesyłania strumieni danych. W sprzyjających warunkach jedna nośna może obsłużyć równolegle kilka strumieni, co dramatycznie zwiększa przepływność bez dodawania nowego pasma.

W praktyce oznacza to, że przy tym samym paśmie, w tej samej lokalizacji, LTE jest w stanie dostarczyć wielokrotnie więcej danych niż HSPA, a przy tym utrzymywać stabilniejsze prędkości przy większej liczbie użytkowników.

Struktura sieci LTE: eNodeB i EPC w skrócie

W 4G znacząco uproszczono warstwę radiową. Stacje bazowe eNodeB realizują nie tylko funkcje radiowe, ale też część zadań kontrolnych, które wcześniej były skupione w kontrolerach (BSC/RNC). Sieć stała się bardziej płaska, z mniejszą liczbą pośrednich elementów.

W rdzeniu EPC kluczową rolę pełnią m.in. elementy MME (Mobility Management Entity) odpowiadające za sygnalizację i mobilność oraz SGW/PGW (Serving/Packet Gateway), które obsługują faktyczny przepływ danych i dostęp do Internetu.

Sesja użytkownika w LTE ma charakter „tunelu IP” od urządzenia do bramy pakietowej. Nad tym tunelem można budować różne klasy usług, priorytety i mechanizmy bezpieczeństwa, co było fundamentem dla ofert typu VoLTE, VoWiFi, a także późniejszych usług 5G.

Carrier Aggregation i rozwój LTE-Advanced

Pierwsze wdrożenia LTE oferowały znaczny skok wydajności, ale bardzo szybko okazało się, że presja ruchu danych rośnie szybciej niż planowano. Rozwinięcie standardu w postaci LTE-Advanced przyniosło m.in. Carrier Aggregation (CA).

Carrier Aggregation pozwala łączyć kilka bloków częstotliwości w jedną logiczną „super-nośną” dla pojedynczego użytkownika. Dzięki temu operator może wykorzystać rozproszone pasma – np. fragmenty w 800 MHz, 1800 MHz i 2600 MHz – jak jedno szersze pasmo.

W efekcie użytkownik z kompatybilnym telefonem osiąga znacznie wyższe prędkości, a operator może elastyczniej zarządzać fragmentarycznym zasobem częstotliwości. CA stało się jednym z głównych narzędzi podnoszenia pojemności sieci 4G bez konieczności natychmiastowego zdobywania nowych pasm.

VoLTE i zanikanie klasycznej telefonii

Przez pierwsze lata istnienia LTE głos był często realizowany metodą „CS fallback”: telefon przełączał się na 2G/3G na czas rozmowy. Było to kompromisowe rozwiązanie, utrwalające obecność starszych generacji.

Wprowadzenie VoLTE (Voice over LTE) pozwoliło przenieść rozmowy głosowe w całości do warstwy IP na 4G. Połączenia zestawiane są szybciej, jakość dźwięku bywa wyższa dzięki kodekom szerokopasmowym, a telefon nie musi wykonywać przełączeń między technologiami.

Dla operatorów oznaczało to możliwość wyłączania części infrastruktury 2G/3G lub stopniowego przenoszenia pasm na LTE i później 5G. Głos przestał być osobnym światem technicznym, stał się jednym z wielu strumieni danych w zunifikowanej infrastrukturze IP.

Smartfon jako główne okno na Internet

Wraz z upowszechnieniem LTE nastąpiła zmiana przyzwyczajeń użytkowników. Dla wielu osób telefon stał się podstawowym urządzeniem dostępu do sieci, częściej używanym niż komputer w domu czy pracy.

Mobilne połączenie przestało być „awaryjnym” dostępem. Stało się domyślnym sposobem korzystania z poczty, bankowości, mediów społecznościowych, a w wielu krajach także z usług publicznych. Domowy Internet stacjonarny pozostał ważny, ale coraz częściej był jednym z wielu łącz, a nie jedynym.

LTE umożliwiło także rozwój Hotspotów LTE, domowych routerów mobilnych i ofert „Internetu domowego z sieci komórkowej”. W obszarach o słabszej infrastrukturze kablowej 4G stało się realną alternatywą dla xDSL czy nawet światłowodu.

Internet rzeczy i pierwsze profile M2M w sieci 4G

Wraz z dojrzewaniem LTE zaczęto coraz szerzej korzystać z kart SIM w urządzeniach innych niż telefony: licznikach energii, systemach alarmowych, automatach sprzedających czy pojazdach flotowych. Powstała kategoria usług M2M (Machine-to-Machine).

Aby obsłużyć ten segment efektywniej, w standardach pojawiły się profile takie jak LTE-M i NB-IoT. Pozwalają one urządzeniom IoT na bardzo oszczędną energetycznie komunikację, często z głębokimi trybami uśpienia i gorszym zasięgiem radiowym kompensowanym lepszą czułością odbiorników.

Choć skala była jeszcze ograniczona, to właśnie te rozwiązania przygotowały grunt pod masowe wykorzystanie sieci mobilnych jako uniwersalnego „szkieletu” Internetu rzeczy, rozwijanego dalej w 5G.

5G: od szybszego Internetu do nowej infrastruktury cyfrowej

ITU 5G (IMT-2020) i trzy filary usług

Dla 5G Międzynarodowa Unia Telekomunikacyjna zdefiniowała zbiór wymagań jako IMT-2020. Tym razem nie chodziło wyłącznie o większe prędkości, ale o bardzo zróżnicowane scenariusze wykorzystania.

W centrum znalazły się trzy grupy usług: eMBB (enhanced Mobile Broadband) dla bardzo szybkiego Internetu, URLLC (Ultra-Reliable Low Latency Communications) dla aplikacji wymagających ekstremalnie niskich opóźnień i wysokiej niezawodności oraz mMTC (massive Machine Type Communications) dla masowych wdrożeń IoT.

Takie podejście oznaczało, że 5G ma obsłużyć jednocześnie strumieniowanie wideo w wysokiej rozdzielczości na telefonie, sterowanie robotem przemysłowym z minimalnym opóźnieniem i komunikację tysięcy prostych czujników w mieście. Jedna infrastruktura, różne wymagania jakościowe.

Nowa architektura rdzenia: 5GC i funkcje wirtualne

Rdzeń 5G, określany jako 5GC (5G Core), od początku projektowano z myślą o wirtualizacji i chmurze. Zamiast sztywnych, sprzętowych węzłów sieciowych, coraz większa część funkcji realizowana jest jako oprogramowanie na serwerach ogólnego przeznaczenia.

Pojęcia NFV (Network Functions Virtualization) i SDN (Software Defined Networking) oznaczają możliwość szybkiego uruchamiania, skalowania i rekonfiguracji funkcji sieci – od bram pakietowych po systemy bezpieczeństwa – bez budowy dedykowanego sprzętu do każdej roli.

Dzięki temu operator może elastycznie przydzielać zasoby pod konkretne usługi lub klientów, szybko reagować na skoki obciążenia (np. podczas dużych imprez masowych) i wdrażać nowe funkcje bez kosztownych wymian całych platform.

Standalone, Non-Standalone i rola 4G w pierwszych wdrożeniach 5G

Pierwsze sieci 5G działały najczęściej w trybie NSA (Non-Standalone). Telefon korzystał z 5G na warstwie radiowej, ale sygnalizacja i część usług opierała się nadal na rdzeniu 4G (EPC). Ułatwiało to start komercyjny przy ograniczonych inwestycjach.

Docelowym modelem jest 5G SA (Standalone), gdzie zarówno radio, jak i rdzeń oparte są na standardach piątej generacji. Dopiero w takim układzie możliwe jest pełne wykorzystanie zaawansowanych funkcji, np. kompletnych mechanizmów slicing czy natywnego wsparcia dla ultra-niskich opóźnień.

Przez pewien czas 4G i 5G będą współistniały, a w wielu scenariuszach użytkownik nawet nie zauważy, z której generacji korzysta w danej chwili. Urządzenie będzie płynnie przełączać się między technologiami według możliwości sieci i wymagań aplikacji.

Pasmo milimetrowe, mid-band i refarming niższych częstotliwości

5G może pracować w bardzo szerokim zakresie częstotliwości. Z jednej strony są to pasma zbliżone do tych znanych z 4G (tzw. mid-band, np. 3,5 GHz), z drugiej pasma milimetrowe mmWave (np. powyżej 24 GHz) i refarmowane częstotliwości poniżej 1 GHz.

Beamforming, MIMO i gęsta sieć komórek 5G

W 5G rośnie znaczenie zaawansowanej obróbki sygnału w antenach. Kluczowe są massive MIMO i beamforming.

Massive MIMO wykorzystuje dziesiątki elementów antenowych w jednym sektorze stacji bazowej. Zamiast jednego „rozlanego” sygnału powstaje wiele równoległych strumieni kierowanych do różnych użytkowników.

Beamforming pozwala kształtować wiązkę radiową w czasie rzeczywistym. Sygnał jest wzmacniany w stronę konkretnego terminala, a tłumiony tam, gdzie nie jest potrzebny, co poprawia zasięg i ogranicza zakłócenia.

Wyższe częstotliwości w 5G oznaczają mniejszy zasięg pojedynczej komórki. Dlatego pojawiają się small cells – małe stacje bazowe montowane na latarniach, budynkach czy wewnątrz biurowców, dopełniające zasięg klasycznych makrokomórek.

W praktyce w centrum miasta telefon może „widzieć” jednocześnie kilka warstw sieci: szerokozasięgową komórkę w paśmie poniżej 1 GHz, warstwę pojemnościową w 3,5 GHz i punktowo dostępne small cells w wyższym paśmie.

Network slicing: logiczne sieci na wspólnej infrastrukturze

Jedną z najczęściej przywoływanych innowacji 5G jest network slicing, czyli wydzielanie logicznych sieci na tej samej fizycznej infrastrukturze.

Slice można porównać do „wirtualnego operatora” z własnymi parametrami jakości: pasmem, opóźnieniami, priorytetem ruchu i mechanizmami bezpieczeństwa. Wszystko to konfigurowane programowo.

Operator może utrzymywać osobny slice dla masowego dostępu konsumenckiego, inny dla krytycznej łączności służb ratunkowych, a jeszcze inny dla zakładu przemysłowego, który wymaga stałego opóźnienia i przewidywalnej przepustowości.

W odróżnieniu od APN-ów z 4G, slicing obejmuje całą ścieżkę – od rdzenia sieci, przez transport, aż po warstwę radiową. Dzięki temu gwarancje QoS są realne, a nie tylko deklaratywne.

Edge computing w sieci 5G

Coraz więcej danych przetwarzanych jest „przy krawędzi” sieci, w ramach MEC (Multi-access Edge Computing). Serwery z aplikacjami umieszcza się blisko stacji bazowych lub w regionalnych punktach wymiany ruchu.

Skraca to ścieżkę pakietów do aplikacji. Opóźnienia maleją, a sieć szkieletowa jest odciążana od przesyłania wszystkich danych do odległych centrów danych.

Dla gier w chmurze, systemów rozszerzonej rzeczywistości czy zdalnego sterowania maszynami różnica kilku–kilkunastu milisekund bywa kluczowa. MEC pozwala zbudować takie usługi we współpracy operatora z dostawcami oprogramowania.

Nowe modele biznesowe dla operatorów

Przejście od prostego „sprzedawania gigabajtów” do usług opartych na jakości, niezawodności i niskim opóźnieniu otwiera nowe źródła przychodów dla operatorów.

Zamiast jednego, masowego produktu, można tworzyć wyspecjalizowane oferty: prywatne sieci kampusowe dla fabryk, gwarantowane pasmo dla telewizji mobilnej, dedykowane connectivity dla flot autonomicznych pojazdów.

Coraz istotniejsza staje się współpraca z przemysłem, energetyką, logistyką czy sektorem publicznym. W wielu projektach operator nie jest już tylko dostawcą łącza, ale partnerem integrującym łączność z systemami klienta.

Sieci prywatne 5G w przemyśle i logistyce

Standard 5G przewiduje możliwość uruchamiania prywatnych sieci, odseparowanych od publicznej infrastruktury lub z nią współdzielonych. Takie wdrożenia pojawiają się w fabrykach, portach, kopalniach czy na lotniskach.

Dla zakładu produkcyjnego prywatne 5G oznacza przewidywalne parametry radiowe, lepsze bezpieczeństwo (dane nie opuszczają kampusu) i łatwiejszą integrację z automatyką i robotami AGV/AMR.

W logistyce sieć 5G może obsługiwać czujniki w kontenerach, systemy pozycjonowania w czasie rzeczywistym, autonomiczne wózki i kamery wysokiej rozdzielczości przesyłające obraz do systemów analizy wideo.

5G a komunikacja krytyczna

Tradycyjnie służby ratunkowe i bezpieczeństwa korzystały z osobnych systemów, takich jak TETRA czy analogowe sieci radiowe. 5G ma stopniowo przejmować rolę platformy dla komunikacji krytycznej.

Wymaga to mechanizmów zapewniających priorytet ruchu, odporność na awarie i możliwość działania w sytuacjach przeciążenia sieci publicznej. Network slicing i dedykowane pasma dla służb stanowią jeden z kierunków rozwoju.

Docelowo te same urządzenia mogą obsługiwać zarówno klasyczną łączność głosową, jak i przesył obrazu z kamer osobistych, telemetrię medyczną czy dostęp do baz danych, wszystko w ramach jednolitej sieci opartej na 5G.

Integracja 5G z Wi-Fi i innymi technologiami bezprzewodowymi

5G nie zastępuje Wi-Fi, ale często z nim współpracuje. W budynkach biurowych czy na kampusach typowy układ to sieć Wi-Fi wewnątrz i 5G na zewnątrz, spięte jednym systemem uwierzytelniania i zarządzania ruchem.

Pojawiają się też rozwiązania typu neutral host, gdzie jedna infrastruktura radiowa (np. wewnątrz centrum handlowego) obsługuje wielu operatorów. Łączone są tam technologie 5G, LTE i Wi-Fi 6/7.

W samochodach, urządzeniach IoT czy systemach przemysłowych 5G często współistnieje z Bluetooth, Zigbee czy LoRaWAN. Dobór technologii zależy od zasięgu, wymagań energetycznych i oczekiwanego wolumenu danych.

Ewolucja urządzeń końcowych: od smartfonów do „niewidzialnych” modemów

Dla użytkownika końcowego 5G to głównie nowszy smartfon z odpowiednim modemem, ale zakres urządzeń stale się rozszerza.

Coraz więcej laptopów ma wbudowaną łączność komórkową z obsługą 5G. Routery domowe i firmowe z modemami 5G stają się alternatywą dla łączy kablowych tam, gdzie brak światłowodu.

Rośnie liczba „niewidzialnych” modemów – w systemach monitoringu, maszynach rolniczych, pojazdach kolejowych czy windach. Użytkownik nie widzi anten, kart SIM ani ustawień sieci, ale to 5G (często w wersji przemysłowej) zapewnia kanał dla danych serwisowych i aktualizacji oprogramowania.

Zmiana sposobu korzystania z treści i usług w erze 5G

Wyższa przepustowość i mniejsze opóźnienia przesuwają granicę tego, co użytkownicy uznają za „normalne” korzystanie z sieci mobilnej.

Strumieniowanie wideo w 4K, wielogodzinne wideokonferencje z telefonu czy gry w chmurze przestają być czymś egzotycznym. Domowe Wi-Fi coraz częściej przegrywa z 5G pod względem stabilności tam, gdzie sieć mobilna jest lepiej doinwestowana niż lokalna infrastruktura kablowa.

W wielu gospodarstwach domowych telefon z 5G dzieli połączenie z innymi urządzeniami, zastępując klasyczny router. Dla części użytkowników „Internet w telefonie” to faktycznie jedyny Internet, jaki znają w praktyce.

Wpływ mobilnej rewolucji na projektowanie aplikacji i usług

Stały dostęp szerokopasmowy z urządzeń mobilnych zmienił podejście programistów i dostawców usług. Aplikacje zakładają ciągłą obecność sieci, równoległą synchronizację w tle i streaming danych zamiast lokalnego przechowywania.

Pojawiły się modele biznesowe oparte na subskrypcjach i mikropłatnościach, które sensownie działają tylko przy stałej łączności: muzyka, wideo, gry, aplikacje fitness, systemy monitoringu zdrowia.

Coraz więcej usług tworzy wersje „mobile-first”, a wersje przeglądarkowe stają się dodatkiem, nie odwrotnie. Procesy takie jak logowanie dwuskładnikowe, podpisy elektroniczne czy płatności autoryzowane w aplikacji bankowej są projektowane z myślą o tym, że telefon z dostępem do sieci jest zawsze pod ręką.

Energia, gęstość sieci i wyzwania środowiskowe

Rosnąca gęstość sieci i liczba urządzeń podnosi zużycie energii. Jednocześnie standardy 5G i nowsze generacje sprzętu wprowadzają tryby oszczędzania mocy, dynamiczne wygaszanie zasobów radiowych i inteligentne zarządzanie obciążeniem.

Stacje bazowe potrafią redukować aktywną liczbę warstw MIMO przy niskim ruchu, a następnie szybko je wznawiać w godzinach szczytu. W połączeniu z odnawialnymi źródłami zasilania i magazynami energii ogranicza to ślad węglowy sieci.

Po stronie terminali istotne są mechanizmy takie jak eDRX i PSM w profilach IoT, które umożliwiają wieloletnie działanie urządzeń na baterii przy sporadycznej transmisji niewielkich porcji danych.

Regulacje, bezpieczeństwo i zaufanie do infrastruktury

Wraz z przechodzeniem kluczowych usług państwa i gospodarki na infrastrukturę mobilną rośnie znaczenie regulacji i bezpieczeństwa.

Organy nadzorcze określają wymagania dla odporności sieci, redundancji, przechowywania danych i bezpieczeństwa łańcuchów dostaw sprzętu. Spory o wybór dostawców technologii 5G mają często wymiar polityczny i geostrategiczny, a nie tylko techniczny.

Z punktu widzenia użytkownika kluczowe jest, aby szyfrowanie od radia po rdzeń sieci było domyślne, a zarządzanie tożsamością (SIM, eSIM, przyszłe rozwiązania soft-SIM) zapewniało wysoki poziom ochrony przed klonowaniem i nadużyciami.

Najczęściej zadawane pytania (FAQ)

Czym różni się 1G od 2G (GSM)?

1G to sieci w pełni analogowe, służące tylko do rozmów głosowych. Każdy kraj miał własny standard, co utrudniało roaming, a rozmowy dało się łatwo podsłuchiwać.

2G, czyli GSM, wprowadził transmisję cyfrową, szyfrowanie rozmów, SMS-y i dużo większą pojemność sieci. Dzięki temu więcej osób mogło rozmawiać jednocześnie, a prywatność była lepiej chroniona.

Co oznacza skrót GSM i dlaczego był przełomowy?

GSM to Global System for Mobile Communications (pierwotnie Groupe Spécial Mobile). To pierwszy szeroko przyjęty, wspólny standard cyfrowej telefonii komórkowej w Europie, a później na świecie.

Przełom polegał na ujednoliceniu technologii, możliwości swobodnego roamingu między krajami, wyższej jakości połączeń oraz wprowadzeniu karty SIM, która oddzieliła usługę od konkretnego telefonu.

Jak karta SIM zmieniła korzystanie z telefonu komórkowego?

Karta SIM przechowuje tożsamość abonenta (IMSI, klucze szyfrujące). Dzięki temu można przełożyć ją do innego telefonu i od razu korzystać z usług tego samego numeru.

To rozdzieliło rolę operatora i producenta telefonu: operator sprzedaje usługę, a użytkownik sam wybiera urządzenie. Ułatwiło to konkurencję między producentami i szybkie zmiany telefonów, np. z prostego modelu na „smartfona”.

Jak działa sieć GSM w uproszczeniu?

Telefon łączy się radiowo z najbliższą stacją bazową BTS. Kilka–kilkadziesiąt takich stacji nadzoruje kontroler BSC, który przydziela zasoby radiowe i „przepina” użytkownika między komórkami podczas ruchu.

W rdzeniu sieci działa MSC, które zestawia połączenia, obsługuje SMS-y i łączy z innymi sieciami. Dane o abonentach są w bazach HLR (domowa baza użytkownika) i VLR (tymczasowa baza dla aktualnej lokalizacji, także w roamingu).

Dlaczego SMS stał się tak popularny w sieciach 2G?

SMS początkowo był dodatkiem technicznym do obsługi sieci, ale szybko stał się tańszą alternatywą dla rozmów, szczególnie w ofertach pre-paid i wśród młodzieży. Krótką informację można było przekazać bez dzwonienia.

Wokół SMS-ów powstał osobny styl komunikacji: skróty, emotikony, krótkie zdania. Umówienie spotkania czy wysłanie kodu z banku przestało wymagać rozmowy i stało się kwestią kilku znaków na ekranie.

Dlaczego 1G było mniej bezpieczne niż GSM?

W 1G rozmowy były przesyłane jako sygnał analogowy bez szyfrowania. W praktyce wystarczył prosty odbiornik radiowy, by podsłuchać połączenie lub skopiować numer urządzenia i dzwonić na koszt właściciela.

GSM wprowadził cyfrową transmisję i mechanizmy szyfrowania oraz uwierzytelniania abonenta na podstawie danych z karty SIM. Ataki wciąż były możliwe, ale wymagały znacznie bardziej zaawansowanego sprzętu i wiedzy.

Jak GSM przygotował grunt pod 3G, 4G i 5G?

GSM uporządkował architekturę sieci mobilnej: podział na warstwę radiową (BTS/BSC) i rdzeń sieci (MSC, bazy abonentów). Ten sposób myślenia o sieci został później rozwinięty w 3G, 4G i 5G.

Dodatkowo GSM przyzwyczaił użytkowników do mobilności numeru (karta SIM), roamingu i usług danych (SMS, później GPRS/EDGE). Kolejne generacje rozszerzały te fundamenty o coraz szybszą transmisję Internetu i nowe zastosowania, ale nie zaczynały od zera.

Najważniejsze wnioski

  • Przejście z 1G na GSM (2G) rozwiązało chaos wielu niekompatybilnych, analogowych standardów i umożliwiło swobodny roaming między krajami, szczególnie w Europie.
  • Sieci 1G były mało bezpieczne, łatwe do podsłuchania i podatne na klonowanie tożsamości abonenta, a do tego miały niską pojemność, co często uniemożliwiało wykonanie połączenia w godzinach szczytu.
  • GSM wprowadził pełną cyfryzację rozmów, co poprawiło jakość połączeń, zwiększyło liczbę obsługiwanych użytkowników na tej samej powierzchni oraz pozwoliło wdrożyć szyfrowanie i sensowniejszą ochronę prywatności.
  • Karta SIM oddzieliła tożsamość abonenta od urządzenia, co otworzyło rynek na wolny wybór telefonów, łatwe przenoszenie numeru między aparatami i bardziej elastyczne modele ofert operatorskich.
  • SMS, początkowo funkcja pomocnicza, stał się kluczowym kanałem komunikacji: tańszym niż rozmowa, sprzyjającym komunikacji asynchronicznej i tworzącym nowy, skrótowy język codziennych kontaktów.
  • Telefon komórkowy przeszedł drogę od drogiego „cegłofonu” dla biznesu do podstawowego narzędzia codziennej komunikacji, dostępnego dla młodzieży i mniej zamożnych użytkowników dzięki tańszym aparatom i pre-paidom.
  • Architektura GSM (z kluczową rolą stacji bazowych BTS) stała się fundamentem późniejszych generacji sieci mobilnych, ułatwiając dalszą ewolucję w stronę transmisji danych, mobilnego Internetu i usług 3G/4G/5G.