Ich durfte in der letzten Woche einige Tests in einer LTE-Funkzelle (LTE 0.8) machen, allerdings ist das auch noch keine öffentliche Zelle sondern ein Testnetz.
Die Pingzeiten lagen relativ konstant bei 39-42 ms. Im Download habe ich 40 MBit/s erreicht, im Upload waren es 18 MBit/s.
Zum Thema *Teilen der Bandbreite*:
Es gibt sehr viele Beschreibungen zr Funktion von UMTS- und LTE-Netzen im Internet. Da das ein ziemlich komplexes Thema ist, sind die Beschreibungen alle sehr populärwissenschaftlich gehalten, was für den technikaffinen Laien auch sehr vorteilhaft ist. Aber daraus dann abzuleiten, dass nur ein User die maximale Bandbreite erreichen kann, wenn er die Zelle für sich alleine hat und nur noch die Hälfte bekommt, wenn ein weiterer User hinzu kommt, ist schlichtweg falsch. Rein theoretisch könnten alle User einer Zelle gleichzeitig die maximal mögliche Geschwindigkeit nutzen, da jeder Teilnehmer immer das volle Frequenzspektrum des Funkkanals nutzen kann. Die Datenströme der User werden nämlich über ihre Codierung differenziert und nicht anhand der verwendeten Frequenz.
In der Praxis sieht das dann so aus, das die Teilnehmer auch tatsächlich die volle (Frequenz-)Bandbreite bekommen. Aber jeder Teilnehmer ist für den anderen ein potentieller Störer, sein Datenstrom liegt auf der selben Frequenz, kann aber nicht decodiert werden (man soll ja nicht fremde Daten belauschen können). Somit ist es für die eigene Hardware nur ein Rauschen. Viele Teilnehmer in einer Zelle bedeuten also vieler Störer. Und die Gefahr, dass das eigene Signal durch dieses "Störrauschen" überlagert wird, steigt deutlich an. Die am Rand der Zelle befindlichen Teilnehmer bekommen mit jedem weiteren Teilnehmer mehr Probleme, die Verbindung aufrecht zu erhalten, irgendwann würden sie aus dem Netz fliegen. Dieses Verhalten ist auch als "Zellatmung" bekannt, da die Zelle scheinbar kleiner wird.
Um dieser Zellatmung etwas entgegenzuwirken, schaltet die Basisstation für die betreffenden User auf eine andere Modulation um. Die Daten werden dann auf weniger Unterträger verteilt. Das hat zwar zur Folge, dass der User nun eine geringere Nutzbandbreite bekommt (er kann nun weniger MBits/s übertragen), dafür verbessert sich aber der Signal-Rausch-Abstand seiner Sende- und Empfangssignale und können somit wieder eindeutig decodiert werden.
Die Schlussfolgerung, das nun nur die *Powersauger* die komplette Bandbreite belegen, ist also nur zum Teil wahr, Schuld am Dilemma ist eigentlich die Menge der Nutzer in einer Zelle. Und natürlich auch die rückwärtige Anbindung der Station. Wenn eine Basisstation nur 50 MBit/s "nach hinten" wegschaufeln kann, können halt auch nur maximal 5 User mit 10 MBit/s gleichzeitig ihre Daten transportieren...
So, schlagt mich, wenn es zu unverständlich ist...