N°
d'ordre :
UNIVERSITÉ CADI AYYAD
FACULTÉ DES SCIENCES ET TECHNIQUES -
MARRAKECH
****************************
MÉMOIRE
Présenté à la FST pour obtenir :
Le Diplôme des
Études Supérieures Approfondies (DESA)
UFR : Télécommunications instrumentations et
micro électroniques
Référence : P06/03
Étude de l'impact du protocole TCP sur la
capacité et performance du système UMTS-HSDPA
Par :
Abdessamad Darim
(Licence : Electronique)
Soutenu le : /03/08
devant la commission d'examen :
Président : Abdel jalil El Kari
PES FST
Encadrant : Rajaa El Assali PA ENSA
Examinateurs : Brahim Essaid PES
FSSM
Nourdine Idboufker PA ENSA
À ma femme
À mes parents
À mes soeurs et frères
À mes amis
Et à tous ceux que j'aime
« Pour faire de grandes choses, il ne faut pas
être
Un si grand génie, il ne faut pas être
au-dessus des
Hommes, il faut être avec eux»
Montesquieu
REMERCIEMENTS
Je tiens tout d'abord à remercier Madame El
Assali professeur `a l'ENSA de Marrakech, de m'avoir accueilli au sein de la
composante INSA de Marrakech et d'avoir accepté de diriger mon projet
de fin d'étude DESA TER
Mes remerciements vont également à
tous mes professeurs et collègues qui ont assuré ma formation
durant deux années de DESA,
Et enfin je tiens à remercier Messieurs les
professeurs, membres de jury d'avoir accepté de juger et
d'évaluer ce travail.
Sommaire
1
Introduction Generale
13
Chapitre 1 : Réseau UMTS
14
Introduction
15
1. 1 Technique d'accès radio
15
1.1. 1 Techniques de base
17
1.1. 2 Technique d'étalement
18
1. 2 Présentation du système
UMTS
18
1.2 1 Principes de base
19
1.2 2 Service UMTS
19
1. 3 Architecture globale de l'UMTS
22
1.3 1 Domaine Equipement utilisateur
23
1.3 2 UTRAN ( Universal terestrial Radio
Network Acces )
23
1.3 3 Node B
25
1.3 4 Réseau Coeur
25
1. 4 Les interfaces logiques dans
l`UTRAN
25
1.4 1 L'interface Uu
26
1.4 2 Canaux UMTS
27
1.4.2. 1 Canaux logiques :
27
1.4.2. 2 Canaux de transport
28
1.4.2. 3 Canaux physiques
29
1.4 3 Couche physique
31
1.4 4 Couche liaison :
36
1.4.4 1 Couche MAC
36
1.4.4 2 MAC Architecture
37
1.4.4 3 La couche RLC (Radio Link Control
)
39
1.4.4 4 La couche PDCP (Packet Data
Convergence Protocol)
42
1.4.4 5 La couche RRC (Radio Ressource
Control)
42
1.4.4 6 Protocole ARQ (Automatic Repeat
Request Protocol)
42
1.4.4.6 1 Protocole Stop Wait
44
1.4.4.6 2 Protocole Glissement de fenêtre
« Sliding Window «
44
1.4 5 Power control
45
1. 5 Modélisation de la capacité
cellulaire
46
1.5. 1 Capacité du sens descendant
46
CONCLUSION :
47
Chapitre 2 : Technique HSDPA
73
Introduction
49
2.1 Présentation générale
du HSDPA
49
2.2 Structure HSDPA
50
2.3 Architecture de Protocole
52
2 .4 Canaux HSDPA
53
2.5 Mécanisme de retransmission hybride
HARQ
57
2.5.1 Protocole HARQ
58
2.6 Modulation et codage adaptatifs
59
2.7 Fonctionnement de la couche physique
61
2.8 FCSS (Fast Cell Site Selection)
63
2.9 Interval de temps de transmission
(TTI)
63
2.10 Modélisation du HSDPA et Sortie de
Cellule
64
2.10.1 HARQ
64
2.10.2 AMC
64
2.10.3 Ordonnancement rapide (Fast Scheduling)
65
2.10.3.1 Méthode de Round Robin (RR)
66
2.10.3.2 Méthode FFTH (Fast Fair
Throughput)
67
2.10.3.3 Méthode du Maximum C/I (Signal
sur Interférence)
68
2.10.3.4 Méthode du Proportionnel Fair
69
Résultats
71
Conclusion :
72
Chapitre 3 : TCP au dessus
des réseaux sans fils
73
Introduction
73
3.1 Facteurs d'environnement sans fils
73
3.1.1 Limitation de largeur de Bande et
Durée RTT
73
3.1.2 Taux de perte élevé
75
3.1.3 Mobilité
76
3.1.4 Asymétrie de la largeur de bande
76
3.2 Performance TCP
77
3.2.1 Présentation des
procédés
77
3.2.1.1 Solutions niveau liaison
78
3.2.1.2 Split Solutions
78
3.2.3 End-to-End Solutions
79
Chapitre 4 : TCP au dessus des
réseaux sans fils 80
Introduction
80
4.1 Performance TCP
81
4.2 Architecture de la connexion TCP au
dessus UMTS-HSDPA
81
4.3 Comparaison entre RLC, MAC-hs, et TCP
84
4.3.1 Fiabilité
84
4.3.2 Contrôle de flux et Glissement de
fenêtre
85
4.3.3 Segmentation
85
4.4 Modélisation du TCP au dessus
UMTS-HSDPA
86
La variation du débit binaire TCP
au-dessus de l'interface radio est due à deux raisons : diminution de la
taille de fenêtre TCP, et retransmissions des segments TCP.
86
4.4.1 Timeout
86
4.4.1.1 Proposition
87
4.4.1.2 Preuve
87
4.4.2 Démarrage lent ( Slow Start )
88
4.4.3 Temps de rétablissement du premier
perte
89
4.4.4 Etat de stabilité
90
4.5 Effet du TCP sur les réseaux sans
fils a canal partage
93
CONCLUSION
95
Perspective :
Erreur ! Signet non
défini.
Liste des figures
Figure 1.1 Technique d'accès Parmi
les méthodes d'accès de base :
17
Figure 1.2- Architecture générale du
réseau UMTS
23
Figure 1.3 - Éléments du
réseau d'accès UTRAN
24
Figure 1.4 Architecture générique
des interfaces de l`UTRAN
26
Figure 1.5 Couches de protocoles de l'interface
radio Uu
27
Figure 1.6 - Fonctions de la couche physique dans
la chaîne de transmission UTRA/FDD
31
Figure 1.7- Exemple d'une chaîne
d'émission utilisant la modulation QPSK
35
Figure 1.8 : Architecture Générale du
MAC du UMTS cote UE
38
Figure 1.9 Format du MAC PDU
39
Figure 1.10 Format d`un paquet RLC-PDU en mode de
UM
40
Figure 1.11 Format d`un RLC-PDU en m ode AM
41
Figure 1.12 Architecture de la couche PDCP
42
Figure 1.13 probability en fonction du nombre
d'utilisateur dans le sens Descendant
47
Figure 2.1 - Architecture système avec le
HSDPA
50
Figure 2.2 Architecture Protocolaire de
l'interface Radio du système hsdpa
51
Figure 2.3 Architecture Protocolaire de
l'interface Radio du système HSDPA
51
Figure 2.4 Les entités fonctionnelles
incluses dans la MAC-hs
53
Figure 2.5 - Exemple de multiplexage de code avec
deux usagers actifs
54
Figure 2.6 - Relation du timing entre le canal
HS-SCCH et le HS-DSCH
55
Figure 2.7 - Structure du canal HS-DPCCH
56
Figure 2.8 - Technique HARQ dans la chaîne
de codage du canal HS-DSCH
58
Figure 2.9 - Principe de fonctionnement de
l'HARQ
58
Figure 2.10 - Constellations de la modulation
16-QAM et QPSK
60
Figure 2.11 - Fonctionnement de la couche physique
du HSDPA
63
Figure 2.12 Debit de sortie de la cellule HSDPA
pour différent algorithme
70
Figure 2.13 Débit de sortie de la cellule
HSDPA pour différent algorithme
70
Figure 4.1 Structure protocolaire de la connexion
TCP au dessus du système UMTS
83
Figure 4.2 Structure protocolaire de la connexion
TCP au dessus du système UMTS
83
Figure 4.3 Effet du TCP sur la performance d'une
application de 32 kbps
92
Figure 4.4 Effet du TCP sur la performance d'une
application de 64 kbps
92
Figure 4.5 Effet du TCP sur la performance d'une
application de 128 kbps
92
Figure 4.6 Effet du TCP sur la capacite d'une
cellule HSDPA
95
Liste des tableaux
tableau 3.1 Classes de services de l'UMTS
21
tableau 3.2 Comparaison du canal HS-DSCH avec les
autres canaux du lien descendant
54
tableau 3.3 - Schémas de modulation et de
codage MCS sur le lien DL
61
tableau 3.4- Catégories de terminaux
supportant la technologie HSDPA
61
Abbreviations
3GPP Third Generation Partnership Project
Ack Acknowledgement
AM Acknowledge Mode
AMC Adaptive Modulation and Coding
ARQ Automatic Repeat reQuest
BER Bit Error Rate
BlER Block Error Rate
BMC Broadcast/Multicast Control Protocol
CDMA Code Division Multiple Access
CN Core Network
DupAck Duplicated Acknowledgement
EDGE Enhanced Data Rates for GSM Evolution
FDD Frequency Division Duplex
FEC Forward Error Correction
FTP File Transfer Protocol
GGSN Gateway GPRS Support Node
GMSC Gateway Mobile Switching Centre
GSM Global System for Mobile communication
GPRS General Packet Radio Service
HARQ Hybrid Automatic Repeat reQuest
HLR Home Location Register
HS High Speed
HSCSD High Speed Circuit Switched Data
HSDPA High Speed Downlink Packet Access
HS-DShCH High Speed Downlink Shared Channel
HS-PDShCH High Speed Physical Downlink Shared Channel
HS-ShCCH High Speed Shared Control Channel
IP Internet Protocol
ITU International Telecommunication Union
Iu Interface UTRAN - Core Network
Iub Interface Node B - RNC
Iur Interface RNC - RNC
MAC Medium Access Control
MAC-b MAC-broadcast
MAC-d MAC-dedicated
MAC-c/sh MAC-common/shared
MAC-hs MAC-high speed
MCS Modulation and Coding Scheme
MinInter-TTI Minimum Inter-TTI
MSC Mobile Switching Centre
MSS Maximum Segment Size
NAck Negative Acknowledgment
OSI Open System Interconnection
Phy Physical Layer
PDCP Packet Data Convergence Pro tocol
PDU Protocol Data Unit
PLMN Public Land Mobile Network
PU Payload Unit
QoS Quality of Services
RLC Radio Link Control
RNC Radio Network Controller
RNS Radio Network Sub-system
RTO Retransmission Time-Out
RTP Real-Time Transport Protocol
RTT Round Trip Time
RRC Radio Resource Control
SACK Selective Acknowledgment
SDU Service Data Unit
Abbreviations 109
SDL Specification and Description Language
SGSN Serving General Packet Radio Service Support Node
SMS Short Message Service
SRF Simulated Radio Frame
SS7 Common Channel Signaling System No. 7
Status PDU Status information control Protocol Data Unit
SuFi Super Field
TCP Transmission Control Protocol
TDD Time Division Duplex
TDMA Time Division Multiple Access
T-slot Three slots
TM Transparent Mode
TTI Transmission Time Interval
UDP User Datagram Protocol
UE User Equipment
UM Unacknowledged Mode
UMTS Universal Mobile Telecommunication System
UTRAN UMTS Terrestrial Radio Access Network
Uu Interface UE - Node B
VLR Visitor Location Register
WCDMA Wideband Code Division Multiple
Contexte &
Problématique
Un modèle analytique pour évaluer l'effet du
protocole TCP sur la capacité d'UMTS-HSDPA est présenté.
On propose également une méthode pour réduire au minimum
l'effet du TCP sur les réseaux sans fil à l'aide des canaux
partagés. HSDPA (accès à grande vitesse de paquet de
Downlink) réalise des débits binaires globaux plus
élevés par l'introduction de la modulation et du codage
adaptatifs, l'hybride ARQ, les algorithmes d`ordonnancement rapide, la
sélection rapide de cellules. Le modèle proposé est
utilise pour évaluer l'effet du protocole de TCP relatif au
débit binaire de divers services de données (à 64 et
à 128kbps). Comme été prévu le flux du
débit binaire diminue fortement si la congestion dans le réseau
câble augmente. Cependant, la capacité réalisée par
HSDPA n'est pas affectée par TCP.
Mot cle : UMTS , HSDPA , ARQ, AMC ,TCP
Abstract
An analytical model to evaluate the impact of TCP on the
UMTS-HSDPA capacity is presented. A method to minimize the effect of TCP on
wireless networks using shared channels is also proposed. HSDPA (High Speed
Downlink Packet Access) achieves higher aggregate bit rates through the
introduction of adaptive modulation and coding, Hybrid ARQ, fast scheduling,
fast cell selection. The proposed model is used to evaluate the effect of the
TCP protocol on the bit rate of various data services (at 64 and 128kbps). As
expected the bit rate per flow decreases strongly if congestion in the wired
network increases. However, the capacity achieved by HSDPA is not as affected
by TCP.
ãÜáÎÕ
äÚÑÖ
äãæÐÌ
áÊÞííã
ÊÇËíÑ
ÈÑäÇãÌ
ÇáÊÚÇæä
Çáäí Úáì
ÞÏÑÉ äÙÇã UMTS - HSDPA .
äÞÊÑÍ íÖÇ
ØÑíÞÉ
áÊÞáíá ËÑ
ÈÑäÇãÌ
ÇáÊÚÇæä
Çáäí Úáì
ÇáÔÈßÇÊ
ÇááÇÓáßíÉ
ÂÜÊí ÊÓÊÎÏã
ÞäæÇÊ
ãÔÊÑßÉ. HSDPA
íÍÞÞ ÈÊ ãä
Úáì
ÇáãÚÏáÇÊ
ÇáÇÌãÇáíå
ãä ÎáÇá
ÅÏÎÇá ÊÚÏíá
Úáì ÇáÊßí
æÇáÊÑãíÒ arq
áåÌíäå
æÌÏæáÉ
ÓÑíÚÉ ÓÑÚÉ
ÇÎÊíÇÑ
ÇáÎáíÉ. åÐÇ
ÇáäãæÐÌ
ÇáãÞÊÑÍ
íÓÊÎÏã
áÊÞííã ÊËíÑ
ÈÑäÇãÌ
ÇáÊÚÇæä
Çáäí Úáì
ãÚÏá ÇáÈÊ
áãÎÊá ÎÏãÇÊ
ÇáÈíÇäÇÊ (64 í
æ128kbps).
æßãÇ ßÇä
ãÊæÞÚÇ Çä ÈÊ
ãÚÏá ÊÏÞ
ÇáÇäÎÇÖÇÊ
ÈÞæÉ ÇÐÇ
ÇáÇÒÏÍÇã í
ÇáÔÈßå
ÇáÓáßíå
ÇáÒíÇÏÇÊ.
ÔÈå äãæÐÌ
ÊÍáíáí
áÊÞííã
ÇáÞÏÑÉ ÎáíÉ
åæ ÇíÖÇ
ÇáãÚÑæÖÉ í
åÐå ÇáæÑÞå
æÇáãÑÇÓáÇÊ
Èíä ÇáÎáíÉ
ÇáÞÏÑÉ
æãÖãæäå
ÈÑäÇãÌ
ÇáÊÚÇæä
Çáäì åæ ÇÈáÛ
ãÚÏá ÇáÈÊ í
åÐå ÇáæÑÞå
áÌæáÉ ÑæÈä
ÇáãÌÏæá. æãÚ
Ðáß Çä
ÇáÞÏÑÉ ÇáÊí
ÍÞÞåÇ HSDPA áíÓÊ
ßãÇ åí
ãÊÇËÑå
ÈÑäÇãÌ
ÇáÊÚÇæä
Çáäí.
ÈÇÓÊÎÏÇã
åÐå ÇáäÊíÌÉ
æÓíáÉ
ááÍÇÙ Úáì
ÓÚÑ ÇáÞØÚå
ÇáæÇÍÏÉ ãä
ÈÑäÇãÌ
ÇáÊÚÇæä
Çáäí í ÊÏÞ
ãÚíä Ïæä Çä
ÊÊÎáì Úä
ÇáßËíÑ ãä
ÞíãÉ ÇáÎáíÉ
åí ÇáÞÏÑÉ
ÇáãÞÊÑÍÉ
Introduction
Générale
TCP (Transport Control Protocole) est un protocole qui assure
une transmission fiable des données et un contrôle de flux au
niveau de la couche de transport. Ceci est assure par l'utilisation d'un
mécanisme de transmission a fenêtre glissante couple avec un
mécanisme de retransmission des segments TCP erronées et un
contrôle de la taille de la fenêtre de transmission en fonction des
congestions dans les réseaux. TCP est utilise comme protocole de
transport dans la majorité des services véhicules sur Internet
(presque 90%) et il est prévu d'occuper une large partie des services "
données " véhicules dans les réseaux mobiles de
troisième génération. Dans les réseaux sans fil,
les erreurs sur l'interface radio sont interprétées par TCP comme
étant des congestions ce qui entraînera une retransmission des
Segments TCP contenant les erreurs et une baisse de la taille
de la fenêtre de transmission. Ceci entraînera une baisse de la
capacité totale du système et une perte d'efficacité du a
une baisse de la fenêtre sans qu'il y ait de congestion baisse).
L'utilisation de Hybrid-ARQ résout une partie ce problème. En
effet, ARQ retransmet les paquets erronés au niveau de la couche MAC -
hs empêchant ainsi le transfert des erreurs à la couche transport.
Par conséquent, les erreurs causées par l'interface radio seront
transparentes par rapport à la couche transport. Cependant, le
mécanisme Hybrid-ARQ génère un délai de
réception du aux retransmissions fréquentes des paquets. Si ce
délai est important (ce qui est le cas malheureusement cause des
erreurs fréquentes sur l'interface radio), un phénomène de
" timeout " surgit (i.e. un timer déclenché au moment de la
transmission du segment TCP expire sans recevoir un acquittement du
récepteur indiquant la réception du segment sans erreur). TCP mal
interprète ce délai comme étant du a une congestion et
déclenché un mécanisme de
Retransmission suivie d'une baisse de la fenêtre de
transmission jusqu' à sa valeur initiale entraînant ainsi une
perte d'efficacité et une baisse de la capacité totale du
système. Dans cette partie de la thèse, on a développe une
analyse mathématique de ce problème en proposant un modèle
analytique capable de déterminer quantitativement l'effet des
algorithmes d'ordonnancement (étudies précédemment) sur
les performances et services TCP véhicules sur HSDPA. Par
conséquent nous allons fournir des études et
modélisations analytiques couvrant les aspects suivants:
· Capacité du système UMTS dans le sens
descendant
· Analyse et modélisation de la capacité
des cellules HSDPA
· Caractérisation et modélisation de
l'interaction entre le protocole TCP et l'entité MAC-hs. Cette
interaction est due essentiellement à l'utilisation des techniques
Hybrid-ARQ et algorithme d'ordonnancement (scheduling) dans le système.
Chapitre 1 :
Ce chapitre décrit brièvement
l'évolution des réseaux cellulaires. Nous s'intéressons
uniquement aux réseaux UMTS .Durant ce Chapitre nous définissons
l'architecture des réseaux, le différent type de canaux et couche
en fin nous procéderons à une modélisation de la
capacité du système UMTS dans le sens descendant
Chapitre 2 :
Ce chapitre commence par une description
détaillée du système HSDPA et les nouveaux
mécanismes introduits par cette technique tel que les nouveaux canaux
, par la suite nous passerons à une modélisation analytique de la
capacité de la cellule
Chapitre 3 :
Dans ce chapitre nous étudierons le protocole TCP
Chapitre 4 :
Ce chapitre porte sur l'étude de l'impact du protocole
TCP sur les système UMTS et HSDPA en prenant comme algorithme
d'ordonnancement le fair throuphput
Chapitre 1 : Réseau UMTS
Introduction
Pendant les deux dernières décennies,
l'Internet est devenu dans le monde entier le plus grand réseau pour
l'échange d'information. Le transfert de données dans les
réseaux cellulaires sera sans doute l'un des principaux marchés
de télécommunication les années à venir.
Les utilisateurs demanderont de plus en plus la
même qualité de service sur leurs systèmes cellulaires
que celle reçue avec les environnements câblés. Ainsi le
développement technologiques de ces réseaux à connu grand
essor en effet , après la première génération
des téléphones mobiles des années 1970-1980
caractérisée par une modulation analogique, une couverture
limitée, la deuxième génération a vu le jour. Cette
deuxième génération a introduit la technologie
numérique présentant ainsi une meilleure qualité de
service et assurant une certaine confidentialité. Elle comprenait quatre
systèmes : Le GSM (Global System for Mobile Communication) en
Europe, Le D-AMPS (Digital AMPS) aux Etats-Unis, Le Code Division Multiple
Access (IS-95)-Qualcomm aux Etats-Unis aussi Le PDC (Personal Digital
Cellular) au Japon.
Mais au début des années 90, la
norme GSM était adoptée en Europe et depuis, elle s'est
imposée à peu près partout, sauf au Japon, en
Amérique du Nord. Les réseaux GSM qui n'autorisent qu'au mieux
des débits de 9.6 Kbit/s destiner principalement aux appels vocaux, aux
SMS (Short Message Services) et peu à l'acheminement de données,
ce qui n'a pas répondu complètement aux exigences des
utilisateurs bien que des améliorations permettant d'atteindre 14.4
Kbit/s ont été prévu. Donc, afin d'assurer des
débits plus importants et pour répondre aux attentes des
utilisateurs, des nouvelles technologies ont été conçues
et il y a eu ainsi passage à la génération 2.5. Les
technologies de cette génération sont le HSCSD (High Speed
Circuit Switched Data) et le GPRS (General Packet Radio Service) qui permettent
théoriquement à l'utilisateur de bénéficier de
débits allant jusqu'à 171 Kbit/s. Le HSCSD est une
amélioration des services de données en mode circuit de la norme
GSM phase 2. Cette technologie permet d'obtenir des débits de 57.4
Kbit/s en concaténant 4 intervalles de temps de 14.4 Kbit/s au sein
d'une cellule GSM TDMA. Concernant ses services, ils sont très
consommateurs de ressources radio et mal adaptés au monde Internet
pourtant cette technologie est très facile à implémenter
pour les opérateurs.
Pour le GPRS, c'est une technologie orientée
paquet destinée à fonctionner sur les réseaux GSM
fonctionnant en mode circuit. Cette commutation de paquets permet de ne pas
monopoliser le canal de communication comme c'est le cas en commutation de
circuit et autorise une tarification plus souple à l'usage. Outre cet
avantage, GPRS permet d'atteindre des débits de 171.2 Kbit/s si le
schéma de codage utilisé est sans correction et des débits
de 126.4 Kbit/s si le schéma de codage utilisé est avec
correction ; ces débits concernent l'infrastructure du
réseau, donc pour l'utilisateur final ils sont environ de 160 Kbit/s ou
115 Kbit/s .En fait ces débit élevés correspondent
à un utilisateur utilisant les 8 time slots disponibles, mais en
réalité les périphériques ne se verront attribuer
que deux ou trois time slots, ce qui correspondra à des débits
maximum de 28.8 Kbit/s et 43.2 Kbit/s et dans certains cas, GPRS permet une
allocation asymétrique des ressources sur les deux voies montantes et
descendantes (par exemple 1 slot sur la voie montante et 4 sur la voie
descendante) ce qui correspondra à un débit de 14.4 Kbit/s pour
le lien montant et 57.6 Kbit/s pour le lien descendant .Une autre
évolution de GSM formant la génération 2.75 est en passe
d'être déployée ; c'est la technologie EDGE (Enhanced
Data rate for GSM Evolution) qui est conçue pour fournir un pont entre
les technologies de deuxième génération et celles de
troisième génération donc entre GPRS et UMTS. EDGE utilise
une technologie en mode paquets offrant des débits de 384 Kbit/s pour un
utilisateur immobile donc elle permet de tripler le débit de l'interface
radio entre les terminaux et un BTS (Base Transceiver Station) ; en
réalité, ce débit ne dépasse pas les 250 Kbit/s
pour un utilisateur en mouvement. Or le monde des
télécommunications connaît une augmentation du volume des
communications mobiles et un développement extrêmement rapide de
l'Internet ,tant au niveau du nombre d'abonnés qu'au nombre de services
offerts , pour faire face a cet évolution , il est nécessaire
d'effectuer un saut technologique et de franchir le pas vers les réseaux
cellulaires de 3 eme génération , un changement de la
configuration et la structure des réseaux existant est devenu essentiel
.Ces systèmes de troisième génération, et en
particulier l'UMTS, devront évident assurer la continuité avec
les services actuels de téléphonie mobile, mais aussi de
supporter de nouveaux services de transmission de données en mode
paquet, à haut débit, avec différentes qualités de
service pour répondre aux besoins des usagers pour des systèmes
mobiles d'accès à l'Internet. Plusieurs version ont
été développe ; La première version de
l'UMTS : dite Release 99 , Elle utilise la technique WCDMA comme technique
d'accès et emploie pour son domaine de paquet le réseau GPRS
pour fournir la convergence en IP ,tout en appliquant les protocoles ATM pour
technique de transmission . Cette étape d'évolution reste
insuffisante pour compléter la compatibilité avec le monde IP.
L'interface air comme indiquée dans la version 99 ne fournit pas les
débits nécessaires. L'augmentation de l'utilisation de
l'Internet et des services de données motive l'évolution des
réseaux cellulaires des troisièmes et après
troisièmes générations. Par conséquent L'UMTS (
Universal Mobile for Télécommunications System) a
été prépare pour cette évolution a travers les
versions successives (releases) de la norme développées au sein
du 3GPP ( Third génération partnership project). Après
ses promesses de départ d'être capable de supporter des transferts
de données à 2Mb/s, qui se sont avérés par la
suite être plutôt que 384 kbit/s, Dans ce contexte, HSDPA ( High
Speed Downlink Packet Access) a été développe dans les
releases 5 et 6 pour poursuivre l'évolution du mode "paquet" de l'UMTS.
1. 1 Technique d'accès radio
Dans cette section, nous allons présenter les
méthodes d'accès de base avant de détailler le principe
d'étalement de spectre sur lequel s'appuie le WCDMA. Nous verrons
ensuite les codes d'étalement utilisés dans le processus
d'étalement.
1.1. 1 Techniques de base
Figure 1. 1 Technique
d'accès
Parmi les méthodes d'accès de base :
Le FDMA représente la technique la plus
utilisée dans les réseaux mobiles de première
génération. Avec cette méthode, le spectre est
divisé en plusieurs canaux radio avec une largeur de bande (delta f)
Quand un usager désire effectuer un appel, un des canaux est alors
exclusivement alloué à cet usager pendant toute la durée
de la communication. Cette technique s'applique principalement aux signaux
analogiques.
Le TDMA est surtout utilisé dans les
systèmes de deuxième génération, tels que le GSM ou
le IS-136 (appelé aussi Digital AMPS). Par cette technique, une
même bande de fréquences est partagée par un certain nombre
d'utilisateurs qui se voient attribués un intervalle (slot) de temps
unique, comme le montre Dans le cas de la norme européenne GSM, chaque
canal de 200 kHz est divisé en huit tranches de temps, tandis que selon
la norme américaine IS-136, chaque canal de 30 kHz est divisé en
trois tranches de temps. Ces systèmes permettent d'avoir, dans des
conditions réelles d'utilisation, une capacité en terme de nombre
d'utilisateurs 3 à 6 fois supérieure à celle des
systèmes qui se basent sur le FDMA
Le WCDMA, utilisé entre autre en UMTS, permet
à un grand nombre d'usagers d'utiliser la même onde porteuse mais
sans s'interférer les uns avec les autres. Elle consiste à
répartir l'information radioélectrique émise sur une bande
de fréquences plus large que celle réellement nécessaire
à la transmission du signal utile (étalement de spectre). Ce
dernier apparaît alors comme un bruit et sa densité spectrale est
constante sur l'intégralité de la bande occupée. Chaque
utilisateur transmet ses informations sur le canal continûment et en
utilisant toute la bande passante. Ceci veut dire qu'il y a interférence
entre les différents utilisateurs, mais chaque utilisateur envoie sa
propre signature avec ses informations. Cette signature est appelée
code (désigné par pi) et elle est combinée avec les
informations utiles avant de tout transmettre. Les codes sont
caractérisés par les propriétés suivantes :
· Chaque code doit être facilement
distingué de sa répétition dans le temps.
· Chaque code doit être facilement
distingué des autres codes utilisés dans le réseau.
· Les différents codes sont pseudo orthogonaux et
donc pi ' pj » 0 " i j.
1.1. 2
Technique d'étalement
La technique d'étalement de spectre est
utilisée pour affecter à chaque utilisateur un code, ou
séquence, unique qui détermine les fréquences et la
puissance utilisées. Le signal contenant l'information de
l'émetteur est modulé avec la séquence qui lui est
attribuée, ensuite le récepteur recherche la séquence en
question. En isolant toutes les séquences provenant des autres
utilisateurs (qui apparaissent comme du bruit), le signal original de
l'utilisateur peut alors être extrait.
1. 2 Présentation du
système UMTS
L'Universel Mobile
Télécommunications System (UMTS) est la nouvelle norme de
téléphonie mobile, appelée aussi plus
généralement téléphonie de troisième
génération ou 3G. Les puristes préfèrent utiliser
le terme W-WCDMA ( Wide band Code Division Multiple Access ) qui reprend le nom
de la technologie déployée en Europe et par certains
opérateurs asiatiques. Cette technologie permet de faire transiter
davantage de données et va permettre l'apparition de contenus
multimédias sur les téléphones mobiles tel la visiophonie.
On parlera alors plutôt de terminaux multimédias. Ainsi, en plus
de ces évolutions technologiques, la troisième
génération doit répondre à la notion de
qualité, de variété, de capacité et de couverture.
L'organisme UIT (Union Internationale des Télécommunications) qui
règlemente les différents standards de
télécommunications au niveau mondial avait pour objectif de
définir un standard unique et international pour la troisième
génération : l'IMT-2000. Mais cela a échoué puisque
pas moins de quinze technologies d'accès radio lui ont été
proposées. Au final, seulement 6 technologies d'accès radio
terrestre auront été gardées : UTRA/FDD, UTRA/TDD,
TD-SWCDMA, WCDMA2000, UWC-136, DECT. L'UMTS quant à lui regroupe les
deux premières technologies.
1.2 1 Principes de base
Selon l'UIT, les 6 réseaux
d'accès radio terrestre, dont l'UMTS fait parti, doivent satisfaire aux
caractéristiques techniques suivantes :
v Garantir des services à haut débit avec un
minimum de 144kbps dans tout type d'environnement et jusqu'à 2Mbps dans
des environnements intérieurs et avec une mobilité
réduite.
v Transmettre des données symétriques
(même débit montant et descendant) et asymétriques
v Fournir des services à commutation de circuits
(idéal pour la voix) et à commutation de paquets (idéal
pour la transmission de données)
v Qualité de parole comparable à celle des
réseaux câblés
v Capacité et efficacité spectrale doivent
être supérieures à celles des systèmes cellulaires
actuels de deuxième génération
v Possibilité d'offrir des services multimédias
lors d'une même connexion avec des qualités de services
différentes (débit, taux d'erreurs, ...) pour les
différents types de médias (voix, audio, données)
v Compatibilité avec les réseaux d'accès
radio de deuxième génération
v Itinérance entre les différents
systèmes de troisième génération,
c'est-à-dire la compatibilité entre eux.
v Couverture universelle associant des satellites aux
réseaux terrestres
1.2
2 Service UMTS
Standardiser un nouveau service nécessite
généralement une modification des spécifications
techniques, procédées long et ardues qui peut représenter
un frein à l'innovation et à la standardisation de services.
[1]
Par conséquent, dans l'UMTS, on standardise
uniquement certains services afin de préserver une continuité
dans l'offre et on donne les moyens aux opérateurs et aux fournisseurs
de services de développer et de personnaliser leurs propres. Les
services standardisés en UMTS regroupent les :
- services support (bearer services) ;
- télé services (remote services) ;
- services supplémentaires.
Un service support est une sorte de « tuyau
» que l'opérateur du réseau mobile met à la
disposition de l'abonné pour transmettre de l'information entre deux
points. Il joue un rôle fondamental dans le réseau en transportant
l'information liée au service (voix, données, vidéo...) et
à la signalisation. Les télés services proposent une offre
complète pour la transmission d'information en incluant les fonctions de
l'équipement terminal. On peut citer, par exemple, la transmission de la
voix (téléphonie et appels d'urgence), le service de messages
courts SMS (Short Message Service), la transmission de fax ou alors des
services de voix groupés (communication en groupe, voix en diffusion).
Les services supplémentaires sont toujours proposés en
association ou comme complément à un service support ou à
un télé service. Ils offrent la possibilité de
personnaliser les services support et les télé services, en
apportant des fonctionnalités additionnelles
Un même service supplémentaire peut
être proposé en association avec des services support ou des
télé-services différents. Parmi ces services, nous pouvons
citer le renvoi d'appel, le transfert d'appel, le rappel automatique, etc.
Chaque service support est caractérisé par un certain nombre
d'attributs qui concernent, entre autres, le débit, le temps qu'il met
pour acheminer l'information d'un bout à l'autre, le taux d'erreur qu'il
garantit, etc.
Tous ces paramètres doivent être choisis
pour que le service support soit le plus adapté possible, car la
qualité finale du service offert, appelée QoS (Quality of
Service), en dépend. La QoS regroupe une série de
caractéristiques quantitatives et qualitatives qui permettent au
destinataire de considérer que la qualité du service est
satisfaisante. A chaque Service correspond une QoS particulière. Ainsi,
les services support doivent-ils être choisis en conséquence
Les caractéristiques du service support sont choisies
pour chaque télé-service ou application en fonction de la QoS que
ces services ou applications requièrent. Ainsi, un service support
pourra être caractérisé en fonction de la capacité
du réseau pour le transfert de l'information et de la qualité de
l'information une fois transférée. Ces paramètres sont
spécifiés ou négociés lors de
l'établissement de la communication et il est possible de les modifier
de manière dynamique au cours de celle-ci.
Le transfert de l'information fait référence
à la capacité du réseau à acheminer
différents types d'information entre deux ou plusieurs points. La
qualité de l'information transférée entre deux ou
plusieurs points peut être quantifiée en fonction d'un nombre
limité de paramètres :
v le délai maximum toléré pour le
transfert de l'information ;
v les variations du délai ;
v le débit binaire ;
v le taux d'erreur binaire.
La maîtrise des variations du délai est
fondamentale pour offrir des services en temps réel. Le taux d'erreur
binaire BER (Bit Error Rate) mesure le rapport entre le nombre de bits
d'informations erronés et le nombre total de bits transmis. Le
débit représente la quantité d'information transmise entre
deux points par intervalle de temps et que l'on mesure en bits par seconde
(bps).
En conclusion, l'application doit indiquer ses besoins
en termes de QoS au réseau UMTS. Plus précisément, elle
doit spécifier les attributs du service support requis : le type de
trafic (temps réel ou non), les caractéristiques du trafic (point
à point, point à multipoint), le délai de transfert
maximum, les variations du délai et le taux d'erreur.
Nous allons donner quelques exemples de services que
l'UMTS peut offrir suivant un découpage par « classes » qui
dépendent de la QoS désirée. Ces classes de services sont
résumées dans le tableau 3.1 et définies comme suit :
Service
|
Délai
|
Exemples d'application
|
Débit
|
Tolérant à des erreurs
|
Conversationnel (temps réel)
|
<< 1s
|
Téléphonie
Vidéophonie
|
28.8 kbps
32-384 kbps
|
Oui
Oui
|
Interactif
|
environ 1 s
|
Commerce électronique
Internet
|
Non garanti
N on
garanti
|
Non
Non
|
Streaming
|
< 10 s
|
Audio/vidéo haute qualité
|
32-128 kbps
|
Oui
|
Arrière-plan (Background)
|
> 10 s
|
Fax
E-mail
|
Non garanti
Non garanti
|
Oui
Non
|
Tableau 1 Classes de
services de l'UMTS [6,7]
a) Services conversationnels [5].
Les services de cette catégorie permettent de
transmettre principalement du son et des images entre deux personnes ou groupes
de personnes. Leur qualité est donc assez sensible à des
délais dans la transmission, ces délais pouvant être
facilement perceptibles par les utilisateurs. Parmi ces services, nous pouvons
citer la téléphonie en mode circuit, la téléphonie
en mode paquet utilisant le protocole VoIP (Voice over IP) et la
vidéophonie. Néanmoins, cette dernière est moins
tolérante aux erreurs que la téléphonie et requiert
généralement un débit plus important [4]
b) Services interactifs : ce type de service est
caractérisé par le fait que le terminal ayant envoyé un
message/commande attend une réponse du destinataire dans un certain
intervalle de temps. Par conséquent, un paramètre clé pour
identifier la QoS des services interactifs est le temps d'aller-retour, c'est
à dire le temps écoulé entre le moment où le
message/commande est émis et celui où la réponse arrive.
Comme exemple, nous pouvons citer le commerce électronique ainsi que les
services de localisation qui se développent de plus en plus ; [6,7].
c) Services streaming : on retrouve dans cette classe les
services qui traitent l'information au niveau du terminal de façon
continue, c'est à dire au moment même où elle est
reçue (avant de la recevoir dans sa totalité). Ce type de service
est unidirectionnel. Ces services sont assez récents et offrent un
potentiel d'application assez vaste. Le streaming audio et vidéo sont
des exemples d'applications typiques. [7]. A la différence des services
conversationnels, les services de type streaming sont assez asymétriques
(on ne reçoit pas au même débit que l'on émet) et on
peut tolérer dans ce cas des délais importants ;
d) Services en arrière-plan : il existe des services
qui ne posent, ou presque, aucune contrainte de temps dans le transfert de
l'information qu'ils génèrent. Ils peuvent s'exécuter en
« arrière-plan » (background). Parmi ces services, nous
pouvons trouver l'envoi d'un courrier électronique, d'un message court
SMS ou alors le téléchargement d'un fichier. Le paramètre
pour quantifier la QoS de ce type de ce service est principalement le taux
d'erreurs qui doit être souvent assez [4]
1. 3 Architecture globale de
l'UMTS
Le réseau UMTS repose sur une architecture
flexible et modulaire. Cette architecture n'est associée ni à une
technique d'accès radio, ni à un ensemble de services, ce qui
assure sa compatibilité avec d'autres réseaux mobiles et garantit
son évolution[3]. Une telle architecture, illustrée à la
Figure 1 2 , est composée de trois « domaines » :
_Le domaine de l'équipement de l'usager UE (User
Equipement),
_Le réseau d'accès radio « universel »
UTRAN (Universel Terestrial Radio Access Network)
_ Le réseau coeur CN (Core Network).
Figure 1. 2- Architecture générale du
réseau UMTS
Chaque domaine réalise une fonction bien
précise dans le réseau, tandis que les points d'échange,
notés par Uu et Iu, Iub servent d'interfaces permettant les
échanges entre les différentes parties du réseau.
1.3.1 Domaine Equipement utilisateur
Le domaine de l'équipement utilisateur (UE) comprend
l'ensemble des équipements terminaux. Il comprend à la fois
l'équipement Terminale et l'USIM. Ce domaine permet à
l'utilisateur d'accéder à l'infrastructure par
l'intermédiaire de l'interface Uu. .
L'équipement mobile se subdivise en deux parties [10].
- l'équipement terminal (TE) est la partie où
les données d'information sont génères en
émission ou traitées en réception
- USIM (Universel Subscriber Identity Module), quand
à elle, est une application qui gère les procédures
d'authentification et de chiffrement services auxquels l'abonné a
souscrit. L'USIM réside dans une carte à puce appelée UICC
(UMTS Integrated Circuit Card). Elle peut être utilisée terminal
UMTS indépendamment du fabricant et en général de
l'opérateur du réseau : la carte associe un abonné
à un ou plusieurs fournisseurs de services et pas nécessairement
à l'opérateur du réseau courant.
1.3.2 UTRAN ( Universal terestrial
Radio Network Acces )
L'UTRAN assure le transport des flux entre le terminal mobile
et le réseau coeur. Il fournit à l'UE (User Equipment) les
ressources radio et les mécanismes nécessaires pour
accéder au Réseau Coeur (Core Network) [9,12]. L'UTRAN
contient les entités qui contrôlent les fonctions liées
à la mobilité et l'accès au réseau. Ils
également assurent établissement et libération des
connexions radio L'UTRAN se compose des sous-systèmes par dite RNS
(Radio Network Subsystem). Reliés au réseau Coeur par
l'interface Iu . Chaque RNS se contient RNC (Radio Network Contrôler)
et un ou plusieurs node B comme le montre la Figure1.3
RNS
RNC
RNS
RNC
Core Network
NodeB
NodeB
NodeB
NodeB
Iu
Iu
Iur
Iub
Iub
Iub
Iub
Figure 1.3 - Éléments du réseau
d'accès UTRAN
Le RNS Radio Network Subsystem)
Il est constitué
d'un seul contrôleur de réseau radio RNC et de plusieurs noeuds B
(Node B).
Le RNC (Radio Network Controller)
Le RNC contrôle et gère les ressources radio
(établissement, maintien et libération des canaux radio),
effectue le contrôle d'admission CAC (Call Admission Control) et alloue
des codes pour des nouveaux liens radio. Il effectue également le
contrôle de la charge et de congestion, ainsi que d'autres fonctions
liées à la mobilité notamment le handover qui permet
à un terminal mobile de se déplacer d'une cellule à
l'autre. Deux types de RNC sont définis [12]. Le Serving RNC (S-RNC):
il gère les connexions radio avec le mobile et sert de point de
rattachement au core network via l'interface Iu. Il contrôle et
exécute le handover. Il assure aussi les fonctions de
Division/recombinaison dans le cas du soft-handover pour acheminer un seul
flux vers l'interface Iu. Le Drift RNC (D-RNC): sur ordre du S-RNC, il
gère les ressources radio des stations de base (Node B) qui
dépendent de lui. Il effectue la recombinaison des liens lorsque du fait
de la macro diversité, plusieurs liens radio sont établis avec
des stations de base qui lui sont rattachés. Il route les données
utilisateurs vers le Serving RNC dans le sens montant et vers ses stations de
base dans le sens descendant.
1.3.3 Node B
Il assure la transmission et la réception
d'informations entre l'UTRAN et un ou plusieurs équipements usagers.
Parmi ses fonctions, on peut citer le contrôle de puissance. En effet, la
puissance d'émission de l'UE est contrôlée
systématiquement pour lui assurer la même qualité de
service indépendamment de sa position dans le réseau. Allocation
des ressources radio. Dans la release 99 le node B contient uniquement les
procédures assurant uniquement la gestion de la couche physique tel
que : le codage, étalement de spectre et signalisation couche
physique. Dans la release 5 et 6, des fonctions intelligentes ont
été introduit dans le node B, pour améliorer les
performances de la couche MAC est spécialement le HARQ et le programme
d'ordonnancement
1.3.4
Réseau Coeur
Le réseau Coeur (Core Network) : il
assure la connexion entre les différents réseaux d'accès
et entre le réseau UMTS et les autres réseaux comme le
réseau téléphonique (PSTN : Public Switched
Téléphone Network), le réseau GSM, le réseau
RNIS [9] (Réseau Numérique à Intégration de
Services ou ISDN : Integrated Services Digital Network), etc. Il
fournit le support des services de télécommunications UMTS et
gère les informations de localisation des utilisateurs mobiles ainsi
qu'il contrôle les services et les caractéristiques du
réseau. Le réseau coeur est composé de deux
domaines : le domaine à commutation de circuits CS (Circuit
Switched domain) et le domaine à commutation de paquets PS (Packet
Switched domain).
1.4 Les interfaces logiques
dans l`UTRAN
L`architecture générique des interfaces logiques de
l`UTRAN est représentée dans la Figure 1.4 La structure de la
pile protocolaire se divise en deux couches : la couche du
réseau radio RNL (Radio Network Layer) et la couche du
réseau de transport TNL (Transport Network Layer). Ces deux
couches sont séparées dans le but de pouvoir modifier la
couche de transport sans besoin de reconfigurer la couche radio.
[13]
Figure 1. 4 Architecture générique des
interfaces de l`UTRAN
La couche réseau de transport est
destinée à transporter les données de la couche radio
au sein de l`UTRAN. La couche réseau radio assure la gestion des
ressources de l`interface radio et les fonctions d`établissement et de
libération des connexions entre le terminal mobile et le réseau
UTRAN. Le plan de contrôle de la couche réseau radio
gère les canaux de signalisation nécessaires pour transmettre les
données des protocoles applications comme RANAP (Radio Access
Network Application Protocol), RNSAP (Radio Network Subsystem Application
Part) ou NBAP ( Node B Application Part). Les protocoles du plan de
contrôle de la couche réseau radio sont indépendants de la
technologie employée dans le réseau de transport .Les protocoles
ALCAP (Access Link Control Application Part) du plan de contrôle de la
couche réseau de transport assurent les services de
signalisation nécessaires pour l`établissement des connexions
du plan utilisateur pour transporter les données de la couche
réseau radio. Le plan utilisateur de la couche réseau radio
contient les protocoles nécessaires pour transporter les flux des
données de l`interface radio ainsi que es informations
nécessaires aux mécanismes de synchronisation des trames et de
macro diversité.
1.4 .1 L'interface Uu
L'interface logique Uu sert à connecter
le terminal mobile à la station de base par l'intermédiaire
d'une liaison radio. La couche physique de l'interface Uu est basée
sur la technique d'accès multiple à répartition en
codes WCDMA (Code Division Multiple Access
Dans le but de comprendre les fonctions de
l'interface d'accès au réseau UTRAN, nous allons décrire
les protocoles de communication mis en oeuvre sur l'interface entre un terminal
mobile et le réseau d'accès radio du système UMTS. On
pourra distinguer sur cette interface radio trois couches principales de
protocoles illustrées à la Figure 1.5
Couche physique (couche 1) ;
ü la couche de liaison de données (couche 2)
compose aussi des quatre sous couches :
ü la sous-couche MAC (Medium Access Control) ;
1- la sous-couche RLC (Radio Link Control) ;
2- la sous-couche PDPC (Packet Data Convergence Protocol) ;
3- _ la sous-couche BMC (Broadcast/Multicast Control
ü la couche 3 Réseau est la couche de
contrôle de ressource radio RRC (Radio Ressource Control). Elle est
divisée en trois sous-couche : la couches : RRC (Radio
Ressource Control), MM (Mobility Management) et CC (Call Control).
L3
control
control
control
Logical
Channels
Transport
Channels
C-plane signalling
U-plane information
PHY
L2/MAC
L1
RLC
DC
Nt
GC
L2/RLC
MAC
RLC
RLC
RLC
RLC
RLC
RLC
RLC
Duplication avoidance
UuS boundary
BMC
L2/BMC
control
PDCP
PDCP
L2/PDCP
DC
Nt
GC
Radio
Bearers
RRC
control
Figure 1. 5 Couches de protocoles de l'interface
radio Uu
1.4.2
Canaux UMTS
1.4.2.1 Canaux
logiques :
Les canaux logiques sont définie selon
l'information transporte, nous distinguons alors deux classes de canaux
logiques, ceux pour le contrôle et ceux pour le trafic
Canaux logiques de contrôle
Le transfert des donnes de la couche Mac est effectues sur
les canaux logiques, il existe deux type de canaux logique : canaux de
trafic et canaux de contrôles. Les canaux logiques de contrôles
sont utilises pour le transport d'information au niveau de plan de
contrôle et ceux de trafic sont utilises pour achemines les information
du plan user [16,17]
ü Broadcast control Channel (BCCH) utilisé
dans le sens descendant pour la diffusion des informations du réseau au
niveau de toutes les cellules.
ü Paging control Channel (PCCH) utilises dans le sens
downlink pour achemines les information du paging
ü Common control Channel (CCCH) utilise dans le sens
montant et descendant pour transporter l'information de contrôle entre le
réseau et UE
ü Dedicated control Channel (DCCH) utilise dans le sens
montant et descendant pour transporter les informations de signalisation entre
UTRAN et le Mobile. ce canal est utilisé durant
l'établissement de connexion avec le RRC
Les
canaux logiques de trafic : [16,17]
ü Dedicated Trafic Channel (DTCH) utilise dans le sens
descendant et montant, pour la transmission des informations entre l'utran et
utilisateur
ü Common Trafic Channel (CTCH) utilise pour la
transmission des messages pour les utilisateurs
ü MBMS point to multipoint trafic Channel (MTCH) utilise
dans le sens descendant pour transporter le trafic MBMS au mobile
1.4.2.2 Canaux de transport
Les canaux de transport sont des services offerts par
la couche 1 aux couches plus élevées. Le canal de transport est
unidirectionnelle (montante ou descendant), comprend les
caractéristiques exigées pour le transfert des données
sur interface par radio. Par exemple, la taille du bloc de transport (pour
transporter l'unité de données de la couche MAC est l'une des
caractéristiques de canal de transport . Noter que la période
correspondante à la transmission du bloc de transport est connue comme
l'intervalle de temps de transmission (TTI). Dans la version 99, le TTI peut
prendre les valeurs en ms 10, 20, 40, ou 80. Pour le Service
conversationnelle, le TTI est fixe 10 ms. Pour les services de données
il change selon le service utilisé. Les canaux de transport sont classes
en trois groupe : canaux communs, canaux Dédies, et canaux
partagés.
Un canal commun est un canal point à multipoint
unidirectionnel utilisé pour le transfert d'informations de donnes et de
contrôle des couches supérieur entre UTRAN et le Mobile. La couche
physique est transparente pour les informations transmises. Les principaux
canaux communs sont :
ü Broadcast Channel (BCH) utilise dans le sens
descendant pour la diffusion des systèmes informations et
spécifique cellule informations
ü The random access
channel (RACH)
Il existe un seul type de canal partagé
spécifié dans la R99 le DSCH (Downlink Shared Channel). C'est
un canal utilisé uniquement sur la voie descendante en association avec
un ou plusieurs canaux dédiés. Il est partagé
dynamiquement par différents utilisateurs et transporte des
données de contrôle ou de trafic.
Un canal dédié est un canal point à
point dédié à un seul UE. Le DCH (Dedicated CHannel) est
le seul type de canal dédies dans la R99. Ce type de canal existe dans
les deux sens de la liaison et transporte des données.
1.4.2.3 Canaux physiques
Canaux physiques
dédiés de la voie montante
Il existe deux types de canaux physiques
dédiés dans la voie montante :
ü Le canal physique dédié de données
DPDCH (Dedicated Physical Data CHannel)
ü Le canal physique dédié de contrôle
DPCCH (Dedicated Physical Control CHannel).
De manière générale, dans la voie
montante, la transmission de plusieurs services en parallèle
dotés de débits différents est accomplie en accommodant
plusieurs canaux de transport dédiés (DCH) dans un seul canal
physique de données dédié (DPDCH). Cette approche devient
rapidement limitée lorsque l'on souhaite accroître le débit
utile. Par exemple, avec SF=4, le débit maximum sur le DPDCH est de 960
kbps. Par ailleurs, si l'on considère que cette information a subi un
codage avec un taux de codage de 1/2, le débit utile maximum que l'on
obtient est de 480 kbps. Une autre manière d'augmenter le débit
consiste à agencer l'information des canaux de transport sur plusieurs
canaux physiques dédiés. Cette approche est appelée
transmission « en Multicode », car plusieurs DPDCH peuvent être
réquisitionnés pour transmettre en parallèle cette
information, chaque canal étant étalé avec un code de
canalisation différente. La valeur SF peut aussi être
différente. Le nombre maximum de DPDCH par utilisateur est de six [4].
Les différents DPDCH sont additionnés et étalés
avec le même code d'embrouillage . On peut noter que l'information de
contrôle associée à la liaison radio est convoyée
par un seul DPCCH.
Avec la transmission en Multicode, le débit utile
total que l'on obtient en considérant un taux de codage de 1/2, un
facteur d'étalement SF=4 et six canaux DPDCH est de 2.88 Mbps.
Cependant, dans la pratique, en présence de trajets multiples et des
limitations dues au contrôle de puissance, il serait difficile de
garantir des performances acceptables avec un tel schéma de
transmission.
Canaux physiques
dédiés de la voie descendante :
À la différence de la voix montante, il
existe un seul type de canal physique dédié dans la voie
descendante appelé :
v DPCH (Dedicated Physical CHannel). Ce canal achemine
l'information du canal de transport
DCH - information qui peut être du trafic de
données ou de contrôle généré par les couches
supérieures. Il transporte également de l'information de
contrôle engendrée par la couche physique elle-même et, de
ce fait, il peut être considéré comme le multiplexage
temporel d'un canal physique de données dédié (DPDCH) et
d'un canal physique de contrôle dédié (DPCCH).
La transmission en Multicode est également
possible dans la voie descendante. Les DPCH sont transmis en parallèle
vers l'UE concerné avec la même valeur ou non de SF. Chaque DPCH
possède un code de canalisation différent. Par contre, le
même code d'embrouillage est appliqué à tous les DPCH
impliqués.
Canaux physiques
communs
Nous allons citer uniquement trois canaux physiques communs
sur la voix descendante :
ü PDSCH (Physical Downlink Shared Channel),
ü CPICH (Common Pilot Channel)
ü SCH (Synchronization Channel).
Le canal PDSCH supporte le DSCH lors de l'envoi de
trafic de données à haut débit vers un ou plusieurs
équipements usagers situés dans une même cellule. Plusieurs
utilisateurs peuvent se partager ce canal à des moments
différents. Ceci est particulièrement précieux pour
l'UTRAN dans des situations où les codes de canalisation dont dispose la
cellule se font rares. L'allocation d'un PDSCH à un UE est
cadencée par TTI.
Dans certains cas, UTRAN peut attribuer, dans une
même trame, plusieurs PDSCH à un UE en utilisant la technique de
transmission Multicode où chaque PDSCH possède la même
valeur de SF. Des débits aussi élevés que ceux que l'on
obtient avec un canal dédié peut être ainsi atteints.
Comme son nom l'indique, le CPICH est composé
d'une séquence prédéfinie de bits dits « pilotes
» qui sont transmis en permanence sur la cellule. Le débit de ces
bits est constant et égal à 30 kbps, ce qui est fixé avec
une valeur de SF constante et égale à 256.
Le CPICH peut être considéré comme
un canal « balise » dont les terminaux mobiles se servent, entre
autres, pour estimer la qualité du canal de propagation. La
précision de cette estimation permet d'améliorer les performances
des techniques de détection mises en place à la
réception, pour récupérer l'information binaire transmise
par le biais des canaux physiques dédiés et communs de la voie
descendante.
Le SCH permet aux stations mobiles de se synchroniser
avec le réseau et de récupérer le code d'embrouillage
spécifique à la cellule courante. Il ne transporte pas
d'informations des couches supérieures et il n'est associé
à aucun canal de transport.
1.4.3 Couche physique
La couche physique est chargée de transporter
l'information générée par les couches supérieures.
Il s'agit de véhiculer cette information tout en respectant des
contraintes de qualité imposées par le service (délai,
débit, taux d'erreur, etc). Nous commencerons par présenter la
chaîne de transmission UTRA/FDD. Puis, nous aborderons le multiplexage et
le codage canal en détail. Nous verrons ensuite l'application de
l'étalement de spectre de manière spécifique au
réseau UMTS. Nous terminerons par la modulation radio.
Chaîne de transmission UTRA/FDD :
La couche physique fournit le service de transfert d'information à la
couche MAC au travers des canaux de transport. En émission, les
données fournies par la couche MAC sont passées dans une
chaîne de codage de canal avant d'être transmises sur le
médium physique. En réception, les données reçues
sur un canal physique sont passées dans une chaîne de
décodage de canal avant d'être remises à la couche MAC.
Lorsque plusieurs canaux de transport de même type sont portés
simultanément par un seul canal physique, la chaîne de codage est
suivie d'une chaîne de multiplexage et la chaîne de décodage
est précédée d'une chaîne de démultiplexage.
La Figure 1.6 illustre les différentes opérations de traitement
du signal utilisées dans la chaîne de transmission de
l'UTRA/FDD.
Figure 1. 6 - Fonctions de la couche physique dans la chaîne de transmission
UTRA/FDD
Les fonctions de multiplexage et de codage canal
s'appliquent aux canaux de transport par lesquels transitent les bits
délivrés par les couches supérieures à la couche
physique. Les bits véhiculés par les canaux de transport sont
agencés sur les canaux physiques. Une fois qu'ils sont présents
dans ces canaux, ils subissent des traitements de signal spécifiques
pour pouvoir être transmis à travers l'air. Auparavant, les bits
sont convertis en symboles et subissent l'opération d'étalement
de spectre qui va les transformer en chips. Ce sont des chips qui sont transmis
par l'antenne de l'émetteur après avoir été
modulés et placés sur une fréquence porteuse. Les
fonctions inverses sont mises en place à la réception
Multiplexage et codage : Les services
qui seront offerts par l'UMTS seront riches en contenu multimédia.
Supporter ces services implique la transmission en parallèle de
plusieurs flots d'information et, avec elle, l'utilisation de plusieurs canaux
de transport lors d'une même connexion : Chacun d'eux correspond à
un service ayant une QoS différente. Dans le but d'avoir l'assurance que
la QoS du service en question soit respectée, et plus
particulièrement que le taux d'erreurs et le délai de
transmission soient conformes aux attentes, la couche physique met en place des
mécanismes de multiplexage flexibles et des techniques performantes de
codage pour la détection et la correction des erreurs. Un UE peut
utiliser plusieurs canaux de transport simultanément, chacun
étant doté de ses propres caractéristiques en termes de
qualité de service. Ainsi, un ou plusieurs canaux dédiés
de transport (DCH) peuvent être traités en parallèle pour
constituer débit binaire de données unique appelé CCTrCH
(Coded Composite Transport CHannel). Les bits dans un CCTrCH peuvent être
convoyés par un même canal physique. Les différentes
étapes de la procédure de multiplexage et de codage dans la voie
montante sont mises en évidence dans la et résumées par
les points suivants :
Ø Insertion de bits CRC : le CRC (Cyclic Redundancy
Check) est une technique de détection d'erreurs en réception,
à laquelle les systèmes de radiocommunication ont souvent
recours, car elle est efficace et simple à mettre en oeuvre. Avec la
détection d'erreurs, il est possible d'estimer la probabilité
d'erreur dans un bloc de bits de transport. Cette estimation permet
d'évaluer la qualité de la liaison radio et elle peut être
utilisée dans des procédures tel que le contrôle de
puissance ;
Ø Concaténation et segmentation des blocs de
transport : chaque groupe de blocs de transport, correspondant à un
même canal de transport dans un intervalle de temps de transmission TTI
(Transmission Time Interval), est traité avant d'être
envoyé vers le codeur canal, ce afin que le codeur canal ne
détecte en entrée qu'une séquence de bits unique dont la
taille ne dépasse pas la valeur maximale notée Z. Si le nombre de
blocs de transport dans un TTI est M et si p est le nombre de bits par bloc de
transport, la longueur de cette séquence après
concaténation est M × p. Dans le cas où la taille de la
séquence dépasse Z, on applique alors une procédure de
segmentation dont l'objet est de diviser la séquence en sous
séquences ayant la même taille. La valeur Z est imposée par
le type de codage que l'on met en place. Cette opération permet de
réduire la complexité du codeur ainsi que celle du
décodeur lorsque la séquence à coder est trop longue ;
Ø Codage : une fois que les blocs de transport ont subi
les phases de concaténation et de segmentation, les séquences de
bits qui en résultent sont livrées au codeur. Le codage fait
partie des techniques appelées FEC (Forward Error Correction).
L'idée est de coder les bits en émission en ajoutant des bits de
redondance, de telle sorte qu'en réception, l'on puisse détecter
et corriger d'éventuelles erreurs survenues pendant la transmission. Le
codage se décompose donc en deux phases : le codage, qui est
appliqué en émission et le décodage en réception.
D'une manière générale, quel que
soit le type de codage, l'encodage est effectué en faisant passer une
séquence de bits dans un registre à décalages. Ce registre
est composé de N états où des opérations
algébriques sont appliquées suivant les polynômes
générateurs utilisés. Pour k bits qui rentrent dans
l'encodeur, on obtient n bits en sortie, ce qui détermine le « taux
de codage » défini par le ratio R = k/n. Le paramètre N,
appelé « longueur de contrainte », détermine la
capacité du codage canal à corriger les erreurs et la
complexité de mise en oeuvre de cette technique. Le choix du taux de
codage à appliquer dépend du service. Plus le taux de codage est
faible, plus les performances de codage sont bonnes, même si en contre
partie, le débit utile diminue et les opérations d'encodage et de
décodage sont plus complexes. Il existe deux types de codage en
UTRA/FDD : le codage « convolutionnel » et le codage « Turbo
». Le premier est particulièrement approprié pour des
services de transmission de voix où le taux d'erreur BLER (block Error
Rate) que l'on tolère est de l'ordre de 10-3. En revanche, pour des
services de transmission de données, le taux d'erreur est
généralement plus faible (moins de 10-5). C'est pourquoi l'on
fait appel à des techniques plus sophistiquées, tel que le codage
Turbo qui peut être vu comme la concaténation de deux encodeurs
convolutionnels qui opèrent en parallèle, séparés
par un entrelaceur interne
Une fois l'opération de codage
terminée, d'autres étapes sont nécessaires avant d'entamer
le multiplexage et que nous résumons par ce qui suit : Ajustement de la
taille de trames : cette étape, utilisée sur le lien montant,
consiste à scinder les séquences de bits codés (ou non) en
segments de la même taille et à mettre ces segments en
série. Ce procédé est nécessaire lorsque le nombre
de bits présents dans la séquence de bits en entrée n'est
pas un multiple du nombre de trames par TTI. Afin de s'assurer que tous les
segments aient la même taille, des bits de bourrage peuvent être
insérés ;
Premier entrelacement : l'entrelacement est une
technique qui permet d'obtenir une forme de diversité temporelle et
d'éviter ainsi les erreurs en rafale. Ce procédé consiste
à mélanger une séquence de bits en émission, de
façon à étaler les erreurs pendant la transmission et
rendre plus aléatoire leurs propriétés statistiques.
L'entrelacement permet donc d'améliorer les performances de l'algorithme
de décodage canal utilisé ;
Segmentation des trames : ce traitement vient
compléter l'ajustement de la taille des trames et s'applique lorsque le
TTI est supérieur à 10 ms. Son rôle est de segmenter la
séquence de bits contenue dans un TTI en un nombre entier de trames
consécutives ;
Adaptation du débit : un même canal physique
peut convoyer des bits d'information issus des différents canaux de
transport. Or, le débit d'un canal physique est limité. Il faut
donc adapter le débit à la sortie de chaque canal de transport.
Pour ce faire, on peut être amené à retrancher des bits
dans des flots d'information de chaque canal de transport ou à en
rajouter [4].
Multiplexage des canaux de transport : chaque canal
délivre une séquence binaire codée tous les 10 ms. Ces
séquences sont ensuite concaténées les unes après
les autres pour ne créer qu'un flot binaire unique en série : le
CCTrCH .
Segmentation des canaux physiques et deuxième
entrelacement : la segmentation ne s'applique que lorsque plusieurs canaux
physiques sont utilisés pour le même CCTrCH, autrement dit lors
d'une transmission en multicode. Dans ce cas, le deuxième entrelacement
s'applique individuellement sur chaque canal physique. A la sortie,
l'information est répartie sur le ou les canaux physiques. À ce
stade, on est sûr que les bits d'information provenant de chaque canal de
transport pourront être accommodés dans des trames de 10 ms, et ce
en respectant la QoS requise par le service.
Les fonctions de multiplexage et de codage canal sur le
lien descendant sont similaires à celles mises en place dans la voie
montante. Cependant, il existe des particularités propres au lien
descendant. En effet, le nombre de bits présents dans la trame d'un
canal physique est dicté par le facteur d'étalement SF. Dans la
voie montante, ce paramètre peut changer d'un TTI à un autre.
Tandis que, dans la voie descendante, la valeur du SF reste constante tout au
long de la communication. Ainsi, les fonctions d'adaptation de débit et
de segmentation sont différentes
Application de l'étalement de spectre :
Suite à l'opération de multiplexage et de codage,
les bits sont transformés en symboles, puis on applique les
opérations d'étalement de spectre et de modulation. Auparavant,
il convient de citer les paramètres radio qui caractérisent les
canaux physiques de l'UTRA/FDD. Parmi ces paramètres, on trouve : Les
métriques suivantes sont également
référencées pour définir la durée des canaux
physiques : Une « trame radio » a une durée où on
traite l'information qui s'étend sur quinze intervalles de temps ou
slots, soit 38 400 chips (10 ms) ; Un slot est un intervalle de temps de
longueur fixe et égale à 2560 chips ( 0.667 ms). Le nombre de
bits par slot est variable.
Dans la voie descendante, les codes de canalisation
permettent d'identifier les symboles d'information appartenant à chaque
utilisateur dans une cellule. Dans la voie montante, ils permettent de
différencier les symboles d'information du canal ou des canaux physiques
de données dédiés (DPDCH) et du canal physique
dédié de contrôle (DPCCH) appartenant à un
même utilisateur. Le rôle fonctionnel des codes de canalisation
utilisés dans un réseau UTRA/FDD peut être comparé
aux slots de temps alloués dans le réseaux mobiles à base
de TDMA, aux différents utilisateurs dans la cellule pour les distinguer
(du moins pour ce qui concerne la voie descendante).
Les codes d'embrouillage, dans la voie descendante, permettent
d'identifier une cellule. Il existe donc un code unique d'embrouillage par
cellule. L'utilisation des codes d'embrouillage rend les
propriétés statistiques de l'interférence proche de celles
d'un bruit Gaussien, sachant que cette interférence est invoquée
par les cellules voisines qui émettent sur la même
fréquence porteuse. Le code d'embrouillage permet donc de faciliter la
tâche du récepteur lors de la détection des symboles
transmis. Dans la voie montante, les codes d'embrouillage sont utilisés
non seulement pour améliorer les propriétés statistiques
des codes de canalisation, mais aussi pour différencier les utilisateurs
présents dans une même cellule.
Modulation : La modulation consiste
à transformer le signal en bande de base, une fois converti en
analogique, en signal radio, afin de pouvoir le transmettre dans l'air. La
Figure 1.7 donne un exemple de modulation effectuée au niveau de
l'émetteur de la station mobile et de la station de base
Figure 1. 7- Exemple d'une chaîne
d'émission utilisant la modulation QPSK
Après avoir été étalé et
embrouillé, le signal complexe qui en résulte, composé de
chips, est réparti sur une voie réelle et sur une voie imaginaire
appelée respectivement « voie I » et « voie Q ».
Puis, il est filtré avec un filtre numérique et converti en un
signal analogique à l'aide d'un convertisseur
numérique/analogique (CAN). Le signal passe encore par un filtre
analogique avant d'être modulé en quadrature et transposé
sur une fréquence ?. Une fois filtré, le signal analogique est
ensuite modulé suivant le principe de la modulation QPSK (Quadrature
Phase Shift Keying) [10]. Ce type de modulation permet la transmission de deux
chips par symbole. La phase du signal modulé prend différentes
valeurs qui représentent une paire unique de chips. Dans le
schéma simplifié de la Figure 1.7, le signal modulé est
amplifié à l'aide d'un amplificateur de puissance PA (Power
Amplifier) avant d'être transmis. Le choix de la modulation QPSK a
été effectué précisément avec le souci
d'améliorer son efficacité. En effet, l'efficacité de
l'amplificateur de puissance est particulièrement importante dans la
station mobile, car elle a une influence directe sur la consommation
d'énergie du terminal
1.4.4 Couche liaison :
1.4.4.1 Couche MAC
La couche MAC fournit des services à la
sous-couche de RLC par l'intermédiaire des canaux logiques
(contrôle et du trafic) et coordonne l'accès à la
couche physique par l'intermédiaire des canaux de transport. La couche
MAC multiplexe les canaux logiques sur les canaux physiques et inversement
grâce a une table de correspondance. La couche MAC doit
également négocier les paramètres de QoS en gérant
les contentions entre les demandes de services et en établissant des
priorités entre les accès Les fonctions principales de la couche
MAC sont les suivants [16,17]
ü Sélection du format de transport correspondant
a chaque canal de transport en fonction du débit instantané et
des indications de la couche RRC
ü Gestion des priorités entre flux de donnes pour
chaque mobile. lors de la sélection entre plusieurs format de transport,
la couche MAC détermines les priorités entre flux de donnes
véhicules sur les canaux de transport correspondant .Ces
priorités sont base sur les services support Radio, l'état du
buffer RLC et les indications de puissance de la couche physique. la gestion de
priorité est réalise en sélectionnant le format de
transport pour lequel les donnes à la priorité la plus
élevée sont transportées sur les canaux physiques à
haut débit
ü Gestion dynamique des priorités entre usager a
fin d'utiliser les ressources spectrales pour le transfert des données
sporadiques. la couche MAC gère les priorités sur les canaux de
transport commun et partages
ü Organisation des messages de diffusion de paging
ü Identification des mobiles sur les canaux de
transport : Quand plusieurs canaux logiques dédies à
différents utilisateurs sont acheminées par le même canal
commun (par exemple, FACH, RACH), identification de l' équipement
utilisateur (c.-à-d., cell radio network temporary identity ) [ C-RNTI
] ou identité temporaire de l'UTRAN dans le réseau [ U-RNTI ])
(UTRAN radio network temporary identity ) présent dans
l'en-tête du MAC est employé pour identifier les canaux logiques
de chaque utilisateur du côté de récepteur.
ü Adaptation entre canaux c a d entre les canaux
logiques et les canaux de transport
ü Multiplexage et demultiplixage des PDU en provenance ou
émis vers les couches supérieures vers ou en provenance de la
couche physique sur les canaux de transport commun
ü Commutation dynamique de canal de transport .la couche
MAC commute les flux de donnes entre les canaux de transport commun et
dédies sur la base des indications de la couche RRC
Dans la version 5, une nouvelle entité du MAC
appelé MAC -high speed (MAC -hs) est introduit dans le node B, a
été présenté dans les caractéristiques 3GPP.
Cette entité est responsable de manipuler et de contrôler le
mécanisme de HARQ présenté dans HSDPA. L'entité
MAC_hs est responsable d'assembler, et desa-sembler, et de commander à
nouveau une couche plus élevée PDU. Les PDUs sont livrés
dans l'ordre aux couches plus élevées.
1.4.4.2 MAC Architecture
Afin de manipuler les fonctions décrites
précédemment, la couche MAC est divisée en domaines ou
entités suivants [16,17]
ü MAC - b est l'entité qui manipule le canal de
BCH. Il existe uniquement une seule pour chaque équipement utilisateur,
ainsi qu'une seule au niveau de chaque UTRAN (noeud B) comme spécifie
par le 3GPP.
ü MAC-d est l'entité qui manipule le canal de DCH.
Cette entité est spécifique à chaque utilisateur. Dans
l'UTRAN, cette entité est située dans le SRNC. Notez que le
chiffrage est exécuté par cette entité.
ü MAC-c/sh/m est l'entité qui manipule le FACH,
le PCH, le RACH, le CPCH, le choix de formats de transport, ordonnancement /
manipulation de priorité Il y a un MAC-c/sh/m situés dans
l'équipement utilisateur et dans l'UTRAN (situé dans le CRNC).
Note que dans la version 99, cette entité a été
appelée MAC-c/sh. Dans la version 6, c'est appelé MAC-c/sh/m
puisqu'il est impliqué dans les services de MBMS en multiplexant et en
lisant l'identité de MBMS (qui est employée pour distinguer les
services de MBMS).
ü MAC -hs est l'entité qui manipule le canal de
HS-DSCH spécifie dans la release 5. Cette entité,
située dans le noeud B et dans l'équipement d'utilisateur, est
responsable de la fonctionnalité de HARQ, du choix de format de
transport et de l'établissement d'ordonnancement.
ü Mac -m est l'entité qui contrôle
accès au canal FACH quand il est employé pour porter les canaux
logiques de MTCH et de MSCH . Cette entité est ajoutée aux
caractéristiques 3GPP dans la version 6. Elle existe seulement dans le
côté d'équipement d'utilisateur de l'architecture MAC dans
le cas de la combinaison sélective des canaux de MTCH des cellules
multiples.
ü MAC-e/es est les entités qui manipulent le canal
d'E-DCH. Ces entités sont présentées par le 3GPP dans la
version 6.
ü Les architectures générales MAC sur
l'équipement d'utilisateur et les côtés d'UTRAN,
respectivement, sont dépeintes sur les schémas
suivants :
Figure 1 8 : Architecture Générale du
MAC du UMTS cote UE
Figure 1 9 Format du MAC PDU
Protocole Data Unit
Le format du MAC PDU est présente sur le
schéma 1.9 , se compose d'un en-tête MAC et d'une unité
de donnes de MAC (SDU), de taille variable. Le contenu et la taille de
l'en-tête MAC dépend du type du canal logique, dans certains cas
les donnes de l'entête ne sont pas nécessaire. La taille du
MAC-SDU dépend de la taille de la PDU de RLC
ü Le champ TCTF ( The target Channel type Field ) est
un champs qui identifie les canaux logiques tels que BCCH, CCCH, CTCH, SHCCH,
MCCH, MTCH, MSCH porte par FACH, USCH (TDD seulement), DSCH (TDD seulement) et
Canaux de transport de RACH. Noter que la taille du champ de TCTF de FACH pour
FDD est deux, quatre, ou huit bits.
ü Le champ de C/T est employé pour identifier le
type de canaux logique portes par les canaux logiques de transport et surtout
sur les canaux de FACH et de RACH. l'identification des canaux logiques est
importante lorsque plusieurs canaux logiques sont portes par le même
canal de transport. La taille du champ de C/T est fixée à quatre
bits pour les canaux communs et dédies de transport
ü Le champ type identité d'équipement
utilisateur fournit l'identification de l'équipement de l'utilisateur
sur les canaux de transport commun . Deux types d'identités
équipement utilisateur sont définis par le 3GPP :
- (U-RNTI) UTRAN radio network temporary
identity est employée seulement dans la direction descendante (jamais
dans la liaison montante) quand le canal logique DCCH du RLC du
unacknowledged mode (UM) est organise sur les canaux communs de transport. Le
mode d'UM de RLC est décrit dans la section suivante ;
- (C-RNTI) cell radio network temporary identity
est employée pour DTCH et DCCH dans la liaison montante, DTCH (et
peut-être DCCH) dans la liaison descendante, une fois organise sur les
canaux communs de transport.
Le champ type identité équipement
utilisateur aide le récepteur à décoder correctement
l'identité d'équipement utilisateur dans en-têtes de MAC.
1.4.4.3 La couche RLC (Radio Link Control )
La couche RLC établit la connexion entre
l'équipement de l'utilisateur UE (User Equipment ) et le RNC (Radio
Network Controller). Elle contient des fonctions classiques du niveau 2 tel que
le transfert des données sur l'interface radio. Elle réalise la
fonction de segmentation des paquets en des unités de taille
prédéfinie par la couche RRC [22] . Ces unités sont
appelées RLC-PDU (RLC-Packet Data Unit). Elle assure aussi le
réassemblage des paquets à la réception. La couche RLC
offre trois modes d'opération :
ü Le mode transparent TM (Transparent Mode): dans ce mode
de fonctionnement, la couche RLC réalise uniquement les
opérations de segmentation et de ré assemblage. Aucun
en-tête RLC n'est ajouté aux paquets [21]
ü Le mode non acquitté UM (Unacknowledged Mode):
dans ce mode de fonctionnement, la couche RLC réalise les
mécanismes de segmentation/ré assemblage ainsi que des
mécanismes de concaténation de plusieurs paquets (RLC-SDU:
RLC-Service Data Unit) dans un seul RLC-PDU. Il est à noter qu'un
RLC-SDU correspond à un paquet du niveau supérieur. Le mode UM
assure la détection d'erreurs et de pertes mais aucun mécanisme
de retransmission n'est mis en place. Le format d'un RLC-PDU en mode UM est
présenté sur la Figure 1.10.
Figure 1 10 Format d`un
paquet RLC-PDU en mode de UM
Séquence Number (SN): Ce champ de 7 bits
indique le numéro de séquence du paquet RLC-PDU. Il est
utilisé par l`entité de réception pour détecter les
erreurs et les pertes et pour préserver l`ordre des paquets
Length Indicator (LI): Ce champ de 7 bits indique
la longueur du paquet RLC-SDU, c`est à dire le champ de
données suivant. Dans le cas de concaténation de plusieurs
paquets, un champ LI est ajouté pour chaque RLC-SDU. Un seul champ SN
est ajouté pour l`ensemble du RLC-PDU. Dans le cas où un seul
RLC-SDU est inséré dans un RLC-PDU, le champ LI est
éliminé.
Le bit E : Ce bit indique la fin de chaque champ de
l`en-tête.
Le champ des données (Data): C`est le champ qui
contient les informations de la couche supérieure.
Le champ de bourrage (Padding): Ce sont des bits de
bourrage qui sont ajoutés à la fin du RLC-PDU pour que sa
taille soit égale à la taille imposée par la couche RRC.
Le mode acquitté AM (Acknowledged Mode): dans ce
mode de fonctionnement, la couche RLC assure les mêmes fonctions du mode
UM (segmentation/réassemblage, concaténation, détection
d'erreurs et de pertes) mais en plus, elle assure les fonctions de
retransmission des paquets en cas de perte ou d'erreurs( par ARQ). . Ce mode
de fonctionnement est recommandé pour les applications qui demandent un
transfert fiable des données.
Figure 1 11 Format d`un
RLC-PDU en m ode AM
Le champ D/C distingue entre les paquets de
données (D) et les paquets de contrôle (C).
Le bit P (Polling): ce bit est utilisé pour
forcer l`entité de réception à envoyer un
acquittement.
Le champ HE de deux bits indique si l`octet suivant
est un octet de données ou c`est un champ LI.
Le champ SN est de 12 bits dans le mode AM.
1.4.4.4 La couche PDCP (Packet Data Convergence Protocol)
Elle assure deux fonctions principales [23]. Tout d'abord,
elle permet d'assurer l'indépendance des protocoles radio de l'UTRAN
(couches MAC et RLC) par rapport aux couches de transport réseau TNL
(Transport Network Layer). Cette indépendance permettra de faire
évoluer les protocoles (exemple passage de l'IPv4 à l'IPv6) sans
modifications des protocoles radio de l'UTRAN. D'autre part, la couche PDCP
offre les algorithmes de compression de données ou d'en-tête de
paquets de données, permettant un usage plus efficace de ressource
radio. [1,24]. Ces algorithmes sont indiques a la couche PDCP via PDCP control
SAP
Figure 1 12 Architecture de
la couche PDCP
1.4.4.5 La couche RRC (Radio Ressource Control)
Elle a pour rôle de gérer la signalisation
des connexions radio entre le mobile et l'UTRAN [22] : Établissement,
libération et reconfiguration. Elle est responsable des fonctions de
contrôle d'admission, de la gestion des ressources radio, du
contrôle de puissance et de la gestion de mobilité. Une seule
connexion RRC est établie pour chaque mobile quel que soit le nombre des
sessions et le mode packet switched (PS) ou circuit switched (CS). Cette couche
interagit avec les couches RLC et MAC pour déterminer la taille des
RLC-PDU au niveau de la couche RLC ainsi que le nombre de TB qui pourront
être envoyés dans un même TTI (Transmission Time Interval)
au niveau de la couche MAC.
Pour gérer et assurer le transport de
plusieurs type de trafic sur l'interface air , le 3 GPP ont définie
plusieurs canaux , chaqu' une à un rôle spécifique dans
l'établissement et le maintien des sessions dans l'accès au
réseau UMTS , ainsi ont été divise en trois groupe
canaux logiques , canaux de transports et canaux physiques
1.4.4.6 Protocole ARQ (Automatic Repeat Request Protocol)
L'information transmise au-dessus de l'interface
air est protégée contre les erreurs par l'utilisation du code de
FEC appelé le code de canal. Les services dites ( non real time
service ) tel que la téléphonie et la vedeophonie et et
services dite ( real time service ) telque l`interactif et back gound sont
transmis sur l'interface radio avec une certaines QoS , le service QoS est
caractérise par un retard et un taux bien définie ; dans
le service voie le taux d'erreur ne doit pas dépasser une valeur 10-3
mais pas de tolérance sur le retard. Pour le service de donnes non real
time (service interactive et background) le taux d'erreur ne doit pas
dépasse 10-8 . Le retard de réception des services NRT est
souvent acceptable .Pour atteindre cet objectif du taux d'erreur 10-8 , deux
possibilités sont envisages :
Augmentation de la puissance
d'émission dans le node B
Augmentation de la redondance lors du
codage du canal.
Pour la première solution il en résulte une
augmentation des interférences et une diminution de la capacité.
Pour la deuxième solution augmentation de la redondance en
résulte une diminution du débit utilisateur. Pour éviter
cette dégradation le protocole ARQ est largement utilisés dans
les systèmes de communication sans fil actuels pour avoir une
transmission de donnes sans erreur pour les applications NRT
Le protocole ARQ consiste à la retransmission des
paquets erronés jusqu'à la réception des bons paquets
malgré que les services NRT ne tolèrent pas le retard,
l'idée fonctionne dans les taux d'erreurs élevé qui peut
atteindre les 10-3 .
Le protocole TCP et le protocole ARQ s`interate entre
eux négativement ce qui entraîne une dégradation de
capacité, étant donne que le TCP considère la
retransmission du paquet par le protocole ARQ sur l'interface air comme
congestion dans le réseau fixe.
Le protocole ARQ n'élimine pas tous les erreurs tant que
ils ne sont pas détecte par le CRC. Soit Pud la probabilité
d'erreur à la sortie de ARQ et Pd la probabilité de
détection de paquet erroné qui est aussi la probabilité de
retransmission, le taux d'erreur de paquet est évalue par la somme des
probabilités des événement résultant de la
réception des paquet erroné [27]:
(1.1)
Dans la plus part des réseau de donnes trois protocole
ARQ peuvent être employé [28].
SW protocole,
Go-back-n protocol,
SR protocol
Dans la release 99 le SR_ARQ est utilise au niveau du
RLC, le CRC détecte les erreurs pour chaque PDU_RLC au niveau de
l'équipement utilisateur, dans le cas ou des RLC_PDU sont
erroné, le Mobile informe le RNC via le node B via un message de non
acquittement du PDU porte par le canal montant DPCH, le RNC retransmis le
PDU_RLC jusqu'à sa réception sans erreur
1.4.4.6.1 Protocole Stop Wait
C'est le protocole d'ARQ le plus simple. L'expéditeur
ou le RNC dans le cas d'UMTS R99, classes les paquets à transmettre en
mode FIFO, transmet le premier paquet stocker dans le tampon récepteur,
active le temporisateur, et attend l'accuse du récepteur. La non
réception d'accuser, et l'expiration de temporisateur cause une
retransmission du même paquet par l'expéditeur. Une fois la
réception de l'accuse est positive avant expiration de temporisateur
à l'expéditeur, le prochain paquet dans le tampon est transmis
au récepteur. Cette stratégie cause un retard
considérable puisque les paquets dans le tampon ne peuvent pas
être transmis avant la réception de l'accuse du paquet
précédent. La période de l'inactivité entre la
transmission d'un paquet et la réception de la l'accuse rend ce
protocole inefficace [28]. Notez que dans UMTS R99, ce protocole n'est pas
employé
1.4.4.6.2 Protocole Glissement de fenêtre
« Sliding Window «
Pour traiter le problème d'inefficacité
de la stratégie SW protocole, le protocole de glissement de
fenêtre a été développé. Au lieu de
transmettre un paquet et attendre l'accuse avant d'envoyer un autre,
l'expéditeur transmet W paquets où W est une taille de
fenêtre de transmission, avant de recevoir l'accuse du premier paquet.
Par suite, un autre est transmis, de sorte que tout le nombre de paquets
transmis qui attend l'accuse soit maintenu égale à la taille
W de fenêtre. Cette technique augmente le flux de sortie du
système mais exige des plus grands en-têtes -par exemple, un
numéro de séquence devrait être attribué à
chaque paquet - .
Si le paquet reçu contient des erreurs, un Accuse
Négative est envoyé, par exemple, sur la liaison montante DPCCH
à l'expéditeur, par exemple le RNC. Dans ce cas deux
stratégies de contrôle peuvent être appliquées
:
GO BACK N
SR.
Le protocole go-back-n contrôle plusieurs blocs
à la fois. Quand un paquet reçu est incorrect, un acquittement
Négative est transmis à l'expéditeur. Tous les paquets
transmis à partir d'un paquet incorrect doivent être retransmis.
Au récepteur, tous les paquets reçus après les paquets
incorrects sont jetés. Ce protocole est employé dans le TCP.
Dans les réseaux sans fil, ce protocole
approprié seulement au système ayant des débits binaires
élevés au-dessus de l'interface d'air (gigabits/s) puisque les
erreurs bursty produites par les trajets multiples affectent plusieurs paquets
successifs dans ce cas-ci. Dans les systèmes sans fil avec des
débits binaires limités tels qu' UMTS, cette stratégie
produit retard additionnel et limite l'efficacité de système. La
retransmission sélective des paquets incorrects est plus
appropriée pour les systèmes à bas débit.
L'inefficacité du protocole Go-back-n dans le
cas du taux d'erreurs élevé peut être résolue en
employant la stratégie de SR. Si un paquet reçu est incorrect,
seulement ce paquet est retransmis par l'expéditeur, par
conséquent une diminution de nombre de retransmissions de paquet. Si
Pd représente le taux d'erreur paquet détecté, le nombre
moyen de transmissions de paquet peut être évalué en
utilisant l'équation suivante :
(1.2)
Ce protocole exige plus d'en-tête et de
récepteurs plus complexes. Un problème d'ordre peut surgir
puisque quelques paquets peuvent être correctement reçus et
décodés avant d'autres. Ceci peut avoir un effet sur les
protocoles de haute couche tels que le TCP. Par conséquent,
l'ordonnancement de ces paquets devrait être effectué avant leur
transmission à des couches plus élevées
1.4.5
Power control
Le contrôle de puissance est l'une des
techniques principales utilisées dans les réseaux sans fil. , il
a été nettement améliore entre le GSM et l'UMTS. En GSM
la boucle de contrôle fonctionne à 2HZ en UMTS à 1500 Hz.
Le canal radio change instantanément selon l'environnement de la
propagation. Pour réaliser une QoS exigé par utilisateur, la
puissance de transmission doit être adaptée instantanément
aux dite variations afin de maintenir le niveau du signal . Comme les
conditions de QoS dépendent du type de service, différent seuil
du taux d'erreur est prévues. Pour le service conversationnel, le seuil
est de l'ordre de 10-3 , Pour le transfert des données le seuil est de
10-8. . Pour un état donne du canal de propagation le seuil du taux
d'erreur correspond à une valeur spécifique du SIR . Par
conséquent, le contrôle de puissance doit fournir une adaptation
instantanée des donnes transmis aux conditions de QoS et
l'environnement des mobiles en adaptant le seuil SIR et la puissance
instantanée transmise pour réalise ce seuil.
Dans UMTS, cette adaptation peut être réalise
de façon continue en employant la mesure de qualité du lien
radio avant et après l'établissement de la connexion au RRC
qui contrôle l'accès au-dessus de l'interface Radio. Par
conséquent deux type de contrôle de puissance existent dans le
réseau UMTS [29,30].
Contrôle de puissance avec boucle ferme
Contrôle de puissance avec boucle ouverte
1.5 Modélisation de la
capacité cellulaire
Pour prévoir l'efficacité du
système d'UMTS R99, une évaluation de la capacité des
cellules devrait être effectues. La capacité des cellules est le
nombre maximum d'utilisateurs qui peuvent être servis
simultanément, chaqu'un a un débit binaire et une QoS
donné à satisfaire. La capacité des systèmes
utilisant le mode accès base sur la technique WCDMA est très
sensible, en effet elle subit une dégradation plus le nombre de codes
ou ressources assignés aux utilisateurs augmentent ou si plus
d'utilisateurs sont acceptés dans le système
Le nombre d'utilisateurs peut dépasser la
capacité aux dépens de QoS, en d'autres termes les
données sont reçues avec un SIR inférieur à la
valeur de seuil .
Pour évaluer cette dégradation, la notion de
probabilité de réussite a été introduite
indiquant combien de fois, la valeur SIR des données reçues
n'atteint pas la valeur seuil. la probabilité de réussite est
employé pour assurer la couverture dans les systèmes utilisant
la technique d'accès WCDMA et pour fournir la flexibilité
nécessaire dans la planification cellulaires , ce qui n'est pas
possible dans les systèmes TDMA qui montrent une capacité dure.
Une fois que tous les IT ou canaux disponibles sont assignés dans TDMA,
le système ne peut accepter plus d'utilisateurs.
Dans la littérature, le problème de
planification cellulaire a été largement étudié
avec les diverses méthodes analytiques et simulations [e.g., 31-45].
Dans cette section, un modèle de base pour la capacité
cellulaire, développé est présenté. Le
modèle assure le contrôle parfait de puissance dans la liaison
montante et descendant. Et ne tient pas compte de soft handover et la macro
diversité [34-35, 37-41,46-49].
Avant de présenter l'approche analytique, il est
important de noter que les études de la capacité de
système sont essentielles en raison des interférences induites
par utilisateurs l'une sur l'autre.
1.5.1
Capacité du sens descendant
Dans le sens descendant le SINR peut être approximer
par l'expression suivante :
Ou W est le débit chip , Ri le débit binaire
utilisateur , Gij le facteur Gain du trajet entre l'utilisateur i et la
cellule j , Pi la puissance d'émission de l'utilisateur i ,Pcell
puissance total de la cellule , et interférence d'autre cellule .
Le paramètre est le facteur de perte d'orthogonalité (a = 0.4 pour les
macro cellule et 0.06 pour la microcellule). Le terme relatif au bruit est
considéré négligeable devant les interférences
reçues. Le Gij est donne par avec dij la distance entre le mobile et le node B de la cellule j
,u est Le facteur de perte d'espace libre , et Sij affaiblissement du effet
du masque modélise par la loi normal centre sur zéro ,
écart type ó (ó = 10 dB).
on note l'expression SINR est simplifie comme ci-dessous :
La performance adéquate est atteint pour un BER <
10-3 en d'autre terme SINR > 5 dB, Par conséquent La
probabilité de la dite performance est évalue par :
3.7
Figure 1 13 probabilité de coupure
(Outage probability en fonction du nombre d'utilisateur dans le sens
Descendant
Dans le sens descendant le nombre d`utilisateur est
limite.
CONCLUSION :
Au travers ce chapitre nous nous avis mis en évidence
l`évolution des réseau cellulaire
PRESENTATION TECHNIQUE HSDPA
Introduction
Le système UMTS, présentés dans le
chapitre 1, proposé pour la troisième génération
des réseaux cellulaires est destinée à fournir une
meilleure efficacité spectrale et débits de données sur
l'interface radio . L'objectif pour UMTS, est de soutenir les débits de
données jusqu'à 2 Mbit / s dans l`environnement Indoor ou outdoor
des petites cellules et jusqu'à 384 Kbps en l`environnement out door .
Le 3GPP, responsable de la normalisation des procédures du
système UMTS, réalisé très tôt que la
Premières version de l'UMTS ne serait pas capable de remplir cet
objectif. Comme L'UMTS (Universel Mobile for Télécommunications
System) a été prépare pour tout évolution a
travers les versions successives (releases) de la norme
développées au sein du 3 GPP (third génération
partnership projet). Dans ce contexte, HSDPA (High Speed Downlink Packet
Access) a été développe dans les releases 5 et 6 pour
poursuivre l'évolution du mode "paquet" de l'UMTS. La technologie
HSDPA représente l'évolution principale du UMTS telle que
spécifiée dans la version Release 5 du 3GPP [1-5] dont le sens
descendant comme il existe le HSUPA dans le sens montant . Dans ce qui suit
nous traitons uniquement le HSDPA, nous commencerons par présenter les
caractéristiques principales de la technologie HSDPA et montrer l'impact
de l'introduction de cette technologie sur l'architecture du
sous-système radio. Puis, nous étudierons les nouveaux canaux
introduits ainsi que le rôle qu'ils jouent dans l'implémentation
des propriétés qui sont à la base de l'HSDPA. Par la
suite, nous résumerons le fonctionnement général de la
couche physique de l'UMTS avec la technologie HSDPA. Nous terminerons par les
limitations des approches d'évaluation proposées par d'autres
recherches.
2.1
Présentation générale du HSDPA
Le HSDPA est doté , en plus de l'introduction du
nouveau canal partage dit HS-DSCH ( High Speed Downlink Shared Channel ) ,
d'un ensemble de propriétés dont leur combinaison permet
d'augmenter la capacité du réseau , augmenter le débit
de données jusqu'à plus de 10 Mbps , et réduire le TTI
(intervalle de temps de transmission , nous retrouvons trois techniques
fondamentales dépendant de l'état de canal radio que l'on
résume par les points suivants [6] :
ü La technique de modulation et de codage adaptatifs AMC
(Adaptative Modulation and Coding)
ü La méthode de retransmission hybride rapide
appelée H-ARQ (Hybrid Automatic Repeat request) ;
ü Les algorithmes d'ordonnancement rapide de paquets
(Fast Packet Scheduling).
Figure 2 1 - Architecture
système avec le HSDPA
Dans le but d'implémenter la technologie HSDPA,
trois nouveaux canaux ont été introduits dans les
spécifications de la Release 5 : le HS-DSCH, le HS-SCCH et le canal
physique HS-DPCCH [3]. Le HS-DSCH (High Speed Downlink Shared CHannel) est un
canal partagé qui transporte les données des utilisateurs sur le
lien descendant, avec un débit pic allant au delà des 10 Mbps.
Le canal HS-SCCH (High Speed Shared Control CHannel) prend en charge
l'information de contrôle nécessaire de la couche physique afin de
permettre le décodage des données sur le canal HS-DSCH. Enfin, le
canal HS-DPCCH (High Speed Downlink Dedicated Physical Control CHannel)
transporte l'information de contrôle nécessaire sur le lien
montant, notamment les acquittements ACK (positifs et négatifs) ainsi
que l'information sur la qualité du lien radio.
Puisque le canal HS-DSCH est partagé par
plusieurs utilisateurs, il est nécessaire d'avoir une méthode
d'ordonnancement pour la répartition des ressources. Des algorithmes
d'ordonnancement rapides permettent de distribuer efficacement les ressources
du canal HS-DSCH pour tous les utilisateurs voulant accéder au
réseau. À la Figure 2.1, on constate que cette
fonctionnalité a été également
déplacée vers la station de base (Node B)
2.2
Structure HSDPA
Comme illustré dans le paragraphe
précèdent, HSDPA est base sur un nouveau canal de transport,
appelé HS-DSCH, qui est partagé entre les utilisateurs.
L'adaptation rapide de lien tire profit des variations de la puissance de
signal reçue au mobile, de sorte que chaque utilisateur est servi dans
des conditions favorable du fading . La valeur de TTI est alors fixe à
2 ms dans la norme 3GPP. Pour éviter le retard et la complexité
génère par le contrôle de cette adaptation au RNC, le
canal de transport de HS-DSCH est terminé au noeud B, à la
différence des canaux de transport dans UMTS, qui sont terminés
au RNC. Pour contrôle de l'adaptation rapide de lien combiné avec
les algorithme et HARQ au noeud B, une nouvelle entité MAC ,
appelée MAC-hs (high speed), a été introduit noeud B.
L'architecture générale du protocole radio est
décrit sur le schéma 2.2 [1] MAC-hs est situé
au-dessous de l'entité de MAC-c/s dans le RNC de contrôle. Le
MAC-c/sh fournit des fonctions à HSDPA qui existent déjà
dans UMTS. MAC-d est encore inclus dans le RNC Serveur. Le protocole de la
trame HS-DSCH (HS-DSCH FP) manipule le transport de données de S-RNC
à C-RNC, et entre C-RNC et noeud B. Le 3 GPP propose
également une autre configuration alternative, présentée
sur le schéma 2.3, [7,8] où le S-RNC est directement
relié au noeud B
Figure 2 2 Architecture Protocolaire de
l'interface Radio du système hsdpa
Figure 2 3
Architecture Protocolaire de l'interface Radio du système HSDPA
2.3 Architecture de Protocole
Dans la Release 99, tous les canaux de transports sont
terminés au RNC (Radio Network Controller). Le RNC est
l'élément principal dans le RNS (Radio Network Subsystem) qui
contrôle l'utilisation et la fiabilité des ressources radio. Il
existe trois types de RNC : SRNC (Serving RNC), DRNC (Drift RNC) et CRNC
(Controlling RNC). La procédure de retransmission pour les paquets de
données est située dans le SRNC, qui assure également le
raccordement d'un utilisateur particulier au réseau coeur. Avec
l'introduction de HS-DSCH, une intelligence additionnelle sous forme de couche
MAC HSDPA (MAC-hs) est installée dans le Node B. De cette façon,
les retransmissions peuvent être contrôlées directement par
le Node B, ce qui permet une retransmission plus rapide. Avec HSDPA,
l'interface Iub entre le Node B et le RNC exige un mécanisme de
contrôle de flux pour s'assurer que les buffers du Node B sont
employés correctement et qu'il n'y a aucune perte de données due
au débordement de ces buffers. Bien qu'il y ait ajouté une
nouvelle fonctionnalité MAC supplémentaire dans le Node B, le RNC
maintient toujours les fonctionnalités de Release 99 version 4 de
contrôle du lien radio (RLC), en s'occupant de la retransmission au cas
où la transmission du HS-DSCH du Node B échouerait après,
par exemple, avoir excédé le nombre maximum de retransmission de
la couche physique. La fonction principale de la nouvelle couche MAC (MAC-hs)
du Node B est d'assurer la fonctionnalité du ARQ (Automatic Repeat
Request) et l'ordonnancement aussi bien que la manipulation prioritaire.
Semblable au Node B une nouvelle entité MAC, MAC-hs est ajouté
dans l'architecture de l'UE. La couche MAC-hs de l'UE a la même
fonctionnalité que celle du Node B. Le tableau ci-dessous illustre la
fonctionnalité :
La couche MAC-hs :
Comme expliqué précédemment,
dans l'architecture de la version 99 de l'UTRAN, les algorithmes
d'ordonnancement et le choix du TF (format de transport) sont
exécuté dans le RNC. Pour HSDPA, il est avantageux de
déplacer certaines parties de la fonctionnalité du RNC au Node B,
de ce fait on a une nouvelle entité (MAC-hs) est introduit dans le Node
B. Le MAC-hs est responsable de l'ordonnancement, du HARQ et du choix format de
transfert (TF). Apparemment, quelques améliorations sont
nécessaires dans le Node B pour permettre la fonctionnalité de la
MAC-hs. Il y a une entité de la MAC-hs dans l'UTRAN pour chaque cellule
supportant HS-DSCH. Le MAC-hs est responsable de la manipulation des
données transmises sur le HS-DSCH. En outre, il est responsable de la
gestion des ressources physiques allouées au HSDPA. La MAC-hs
reçoit les paramètres de configuration provenant des couches plus
élevées.
Figure 2 4 Les
entités fonctionnelles incluses dans la MAC-hs
Contrôle du flux :
C'est le complément de la fonction de contrôle de
flux existant dans le RNC pour les canaux dédiés, communs et
partagés. Cette fonction est utilisée pour limiter la latence de
signalisation de la couche 2 et pour réduire les données
rejetées et retransmises en raison de la congestion de HSDSCH.
HARQ : Cette fonction gère la
retransmission de paquets dans le cas d'erreurs de transmission.
Schedule/Priority Handling: Cette fonction
gère les ressources HS-DSCH entre les entités HARQ et les flux de
données selon leur priorité.
TFRC sélection : C'est pour choisir
une combinaison appropriée de format de transport et de ressource de
Transport (TFRC) pour les données à transmettre sur le canal
HS-DSCH. Dans la section suivante la fonction de deux entités
fonctionnelles principales dans la MAC-hs, l'Ordonnanceur et l'unité de
HARQ avec la modulation et le codage adaptatif (AMC) sont
Expliqués plus loin.
2.4
Canaux HSDPA
Le HSDPA introduit le canal de transport HS-DSCH (High
Speed Downlink Shared Channel) comme une évolution du canal DSCH de
l'UMTS. Ce canal doit coexister avec les canaux déjà
présents dans la Release 99 et dans la Release 4 des
spécifications techniques du 3GPP . Le HS-DSCH est un canal haut
débit dont le rôle est de convoyer l'information du noeud B vers
l'UE tout en garantissant la qualité de service requise. Pour
transporter les données jusqu'au mobile, il fait recours à un ou
plusieurs canaux physiques HS-PDSCH [7,8]. Ces canaux sont transmis en
utilisant le principe de transmission multicodes. Les canaux HS-PDSCH sont
envoyés sur l'interface radio sous forme de trame .
Dans le but de résumer ces
caractéristiques, nous avons dressé un tableau comparatif 3.2
qui montre les ressources associées aux canaux DCH, DSCH et HS-DSCH du
lien descendant. Concernant le codage sur le canal HS-DSCH, nous pouvons
l'illustrer à travers un exemple avec 2 utilisateurs actifs qui
utilisent le même canal partagé HS-DSCH tel qu'illustré
à la Figure 2.5. Tous deux vérifient l'information de
contrôle à partir des canaux HS-SCCH afin de déterminer les
codes HS-DSCH à détaler
Canal
|
HS-DSCH
|
DSCH
|
Downlink DCH
|
Specification
|
Release
|
R99
|
R99
|
Facteur d`etalement
|
fixe 16
|
variable ( 256-4)
|
Fixe (512-4)
|
Modulation
|
QPSK/16-QAM
|
QPSK
|
QPSK
|
Controle de puissance
|
Puissance constante
|
Rapide base sur le DCH associe
|
Rapide
|
Schema de Codage canal
|
Codage turbo
|
Codage Turbo et convolutionel
|
Codage Turbo et convolutionnel
|
Tableau 3 2 Comparaison du canal HS-DSCH avec les
autres canaux du lien descendant
Figure 2 5 - Exemple de
multiplexage de code avec deux usagers actifs
Le canal HS-SCCH transporte l'information
nécessaire à la démodulation de l'information du canal
HS-DSCH. L'UTRAN doit allouer un certain nombre de canaux HS-SCCH au plus grand
nombre d'utilisateurs soumis à un multiplexage de codes.
Dans le cas où il n'y aurait aucune
donnée sur le canal HS-DSCH, l'utilisation du canal HS-SCCH n'est pas
nécessaire. En effet, le trafic dû à la signalisation doit
être minimisé afin de réserver le maximum de ressources aux
données utiles. Un usager peut avoir recours à un maximum de
quatre canaux HS-SCCH à un temps donné. Chaque bloc HS-SCCH est
composé de trois slots et divisé en deux parties fonctionnelles,
comme l'illustre la Figure 2.6. La première partie (premier slot)
transporte l'information critique dans le temps qui a besoin de
déclencher le processus de démodulation au moment prévu.
Les paramètres de la première partie indiquent :
- les codes à dés-étalé. Ceci
renvoie aux capacités du terminal à détaler un maximum de
5, 10 ou 15 codes ;
- le type de modulation utilisé : QPSK ou 16QAM.
Les deux autres slots, correspondant à la
deuxième partie, contiennent des paramètres moins sensibles au
temps, tel que le CRC, qui permet de vérifier la validité de
l'information du HS-SCCH ainsi que celle du processus HARQ. Parmi les
paramètres indiqués par cette deuxième partie, nous
pouvons trouver :
- l'information concernant la version de redondance afin de
permettre un décodage réussi et la combinaison avec des
retransmissions antérieures ;
- le nombre de processus ARQ pour indiquer à quel
processus ARQ appartient les données ;
- l'indicateur de première et dernière
retransmission afin de savoir si la transmission doit être
combinée avec les données existantes dans le buffer (dans le cas
où le décodage échouerait) ou si le buffer oit être
vidé et ensuite rempli avec de nouvelles données.
Figure 2 6 - Relation
du timing entre le canal HS-SCCH et le HS-DSCH
Dans la Figure 2.6, un terminal dispose de la
durée d'un seul slot pour déterminer les codes à
désétaler à partir du HS-DSCH. L'utilisation d'un masque
spécifique permet au terminal de vérifier si les données
lui sont destinées. Un terminal est capable de gérer
jusqu'à quatre canaux HS-SCCH (la partie 1 de chaque canal). Cependant
dans le cas où il y aurait des données pour le terminal sur des
TTI consécutifs, le HS-SCCH devra être alors le même pour ce
terminal afin d'augmenter la fiabilité de l'information de
signalisation. Ce type d'approche est nécessaire non seulement afin
d'éviter au terminal de placer dans son buffer des données qui ne
lui sont pas destinées, mais aussi dans le cas où les codes
utilisés dépasseraient le nombre maximum pouvant être
traité par le terminal.
Le canal HS-DPCCH doit permettre le transport, sur le lien
montant, des acquittements aussi bien positifs que négatifs pour les
retransmissions au niveau de la couche physique ainsi que l'information
concernant la qualité du lien radio. Cette dernière sera
utilisée par l'Ordonnanceur, se trouvant dans le Node B, pour
déterminer à quel terminal transmettre et à quel
débit. Le HS-DPCCH est donc divisé en deux parties comme le
montre la Figure 2.7 et transporte les paramètres suivants :
- les transmissions ACK/NAK afin de refléter les
résultats de la vérification CRC après le décodage
de paquets ;
- le CQI (Channel Quality Indicator ) qui indique la taille de
bloc de transport, le type de modulation ainsi que le nombre de codes
parallèles pouvant être correctement reçu (avec un taux
d'erreurs raisonnable) sur le lien descendant.
Figure 2 7 - Structure du
canal HS-DPCCH
La définition d'une méthode qui renvoie
l'information sur les conditions du lien radio n'est pas une tâche
triviale. En effet, on doit tenir compte non seulement des différentes
implémentations de récepteurs mais, en même temps, cette
méthode doit permettre facilement la conversion de ces conditions radio
en une information adéquate pour l'Ordonnanceur.
Dans tous les cas, l'information sur la qualité
du lien radio est codée sur 5 bits. Un état de signalisation est
réservé pour l'état « transmission non
nécessaire » ainsi que d'autres états représentant
la transmission que le terminal peut recevoir à ce moment. Par
conséquent, ces états vont de la transmission à un code
avec une modulation QPSK jusqu'aux transmissions 15 codes avec la modulation
16-QAM (incluant les différents taux de codage. Évidemment, les
restrictions des capacités du terminal doivent être prises en
compte en plus de l'information sur la qualité du lien. Le canal
HS-DPCCH requiert une partie de la puissance de transmission sur le lien
montant et celle-ci doit être prise en compte dans les paramètres
du bilan de liaison.
2.5 Mécanisme de
retransmission hybride HARQ
Afin d'assurer la fiabilité des transmissions, on
distingue deux grandes classes de mécanisme : les mécanismes
réactifs ARQ (Automatic Repeat request) et les mécanismes
proactifs FEC (Forward Error Correction). Dans les mécanismes
réactifs, l'émetteur réagit à la signalisation
d'une perte de paquet en retransmettant ce paquet. Cette signalisation peut
être effectuée par l'émission d'acquittements positifs ACK
(ACKnowledgement) ou négatifs NAK (Negative-AcKnowledgement). En ce qui
concerne le fonctionnement des mécanismes proactifs, l'émetteur
rajoute des paquets de redondance permettant au récepteur de
récupérer des paquets perdus. Ces paquets de redondance sont
calculés en utilisant des codes correcteurs d'erreurs [22]. Ces deux
mécanismes sont souvent combinés en utilisant des acquittements
pour ajuster la quantité de redondances des codes FEC. Une telle
combinaison de mécanismes est appelée « ARQ hybride »
ou HARQ (Hybrid Automatic Repeat reQuest). Le HARQ peut être
caractérisé par certains paramètres tels que la
synchronisation, l'adaptabilité ainsi que la manière dont est
faite la combinaison. Quand la relation temporelle entre la transmission
originale et la (ou les) retransmission(s) est fixe, l'opération HARQ
est dite alors « synchrone ». Si, par contre, les retransmissions
sont programmées à n'importe quel moment après avoir
reçu un ACK, on parlera alors d'opération « HARQ asynchrone
». On dit qu'un système HARQ est adaptatif si on peut
réaliser des retransmissions en utilisant un autre type de modulation
autre que celui qui a été utilisé pour la transmission
originale. Par exemple, si la modulation QPSK est utilisée durant la
première transmission d'un paquet et que celle-ci échoue, la
16-QAM peut être utilisée pour la retransmission de ce même
paquet si les conditions du canal ou des ressources radio (puissance du signal
et/ou codes de canalisation) changent entre la première transmission et
les retransmissions qui se suivent.
On distingue deux variantes de l'HARQ selon que l'on combine
ou non les retransmissions :
- HARQ de type I : dans cette variante, appelée aussi
chasse combinat ou soft combining,
Il n'y a pas de combinaison des retransmissions. Le Soft
combining fait appel à la retransmission par l'émetteur du
même paquet de données codées. Le décodeur au niveau
du récepteur combine ces copies multiples du paquet envoyé,
pondéré par le rapport de signal/bruit SNR (Signal to Noise
Ratio) reçu
- HARQ de type II : cette technique, connue aussi sous le nom
de IR (Inremental Redundancy), contrairement à la
précédente qui envoie des répétitions simples de
tout le paquet encodé, envoie une information redondante additionnelle
d'une manière incrémentale si le décodage échoue
à la première tentative.
La technologie HSDPA s'appuie sur un mécanisme HARQ
asynchrone et adaptatif et peut fonctionner avec les deux variantes Soft
combining et IR. Il est à noter qu'avec la deuxième variante, on
obtient de meilleures performances, mais elle nécessite plus de
mémoire dans le récepteur du terminal mobile pour stocker les
informations de redondance [12]. Comme illustré à la Figure 2.8,
la fonctionnalité HARQ, utilisant la variante IR dans cet exemple, est
implémentée à travers deux blocs d'adaptation au
débit (rate matching) dans la chaîne de codage du canal HS-DSCH.
Cette dernière est illustrée à la Figure 2.9. Le principe
réside dans l'existence d'un buffer entre les deux blocs afin de
permettre de raffiner les paramètres de redondance pour les
différentes retransmissions entre les deux blocs de rate-matching
[5].
Figure 2 8 - Technique
HARQ dans la chaîne de codage du canal HS-DSCH
Figure 2 9 - Principe de
fonctionnement de l'HARQ
2.5.1 Protocole HARQ
L'augmentation de la complexité et des besoins de HARQ
SR conduit à l'adoption des stratégies simples HARQ. Le Stop and
Wait (SW) ARQ protocole est très simple à mettre en oeuvre, mais
puisqu'il est ineficace , un compromis entre SW et SR, appelée
N-Channel SW, a été développe et normalisés pour
le HSDPA [1, 14]. Le N-Channel SW consiste en l`activation N HARQ
processus en parallèle, chacun utilisant le protocole SW. Un HARQ
(processus) peut transmettre des données sur le HS-DSCH tandis que les
autres sont en attente de l'accusé sur la liaison montante. En utilisant
cette stratégie, le processus de retransmission se comporte comme si le
SR HARQ étaient employées. L'avantage du N-channel SW
stratégie à l'égard du SR protocole est qu'un échec
persistant dans la transmission affect qu'un seul canal, permettant aux
données d`etre transmis sur les autres canaux . En outre, par rapport
à la simple SW, la N-Channel SW fournit à l'entité MAC-hs
la flexibilité de renvoyer la HS-DSCH canal à l'utilisateur
même si les conditions Radio sont favorables
2.6
Modulation et codage adaptatifs
L'AMC a été appliquée, en premier
lieu, au standard évolution GSM/EDGE . Grâce à cette
propriété, il est possible de suivre la variation dans le temps
de l'état du canal de transmission et d'augmenter d'une manière
significative les débits de données ainsi que l'efficacité
spectrale du réseau, En effet, selon l'état instantané
du canal radio, envoyées par le terminal mobile, et les ressources
disponibles, un système avec l'AMC peut choisir la modulation et le
codage appropriés. Une nouvelle modulation d'ordre supérieure,
appelée 16 QAM (Quadrature Amplitude Modulation), vient cohabiter avec
l'existante QPSK. Lorsque le terminal est dans une position favorable
(proximité d'une station de base par exemple), la modulation 16 QAM et
des taux de codage supérieurs peuvent être
sélectionnés pour atteindre des pics de débits
élevés. Par contre, si l'UE se trouve dans des conditions
défavorables, on lui alloue un ordre de modulation et un taux de codage
moins élevé dans le but d'assurer la qualité de la
communication. Dans les réseaux mobiles, la qualité d'un signal
reçu par un terminal dépend de plusieurs facteurs, comme la
distance entre la station de base ou la perte de propagation due aux obstacles
ou aux trajets multiples. Dans le but d'améliorer la performance d'un
système, en termes de débit de données et de
fiabilité de la couverture radio, le signal transmis vers et par un
utilisateur particulier est modifié de façon à prendre en
compte les variations de la qualité du signal à travers un
processus connu sous le nom d'adaptation au lien radio » (link
adaptation), connu également sous le nom de AMC., les systèmes
à base de WCDMA utilisaient auparavant le contrôle de puissance
rapide comme méthode privilégiée afin d'implémenter
l'adaptation au lien radio. Récemment, l'AMC s'est
révélé être une méthode alternative
promettant d'améliorer globalement la performance du système.
L'AMC fournit la flexibilité d'adapter la combinaison modulation codage
aux conditions moyennes du canal radio pour chaque utilisateur. Avec l'AMC, la
puissance du signal transmis est maintenue constante pendant toute la
durée de la trame, en faisant varier le nombre de codes
parallèles pouvant être supportés par un terminal et le
taux de codage en fonction de la qualité actuelle du signal reçu.
L'utilisation d'un ordre de modulation plus important avec la 16-QAM permet
aussi d'augmenter le débit d'une manière significative. Cette
nouvelle modulation a été proposée dans la Release 5, mais
son utilisation est, contrairement à la modulation QPSK, optionnelle et
dépend du type de terminal utilisé. Il faut noter que
l'introduction d'un ordre de modulation plus élevé est
accompagnée d'une plus grande complexité dans les terminaux
mobiles, qui doivent estimer l'amplitude relative des symboles reçus.
Cette estimation d'amplitude est nécessaire pour que le terminal puisse
séparer tous les points de la constellation 16-QAM telle
qu'illustré à la Figure 2.10. Étant donné que cette
estimation devient plus difficile lorsque la qualité du signal
reçu est mauvaise, il est alors plus judicieux d'utiliser la modulation
QPSK dont la constellation est moins dense.
Figure 2 10 -
Constellations de la modulation 16-QAM et QPSK
En combinant le type de modulation, le taux de codage et le
nombre de codes supportés, nous obtenons plusieurs combinaisons (5),
appelées également schéma de modulation et de codage MCS
(Modulation and Coding Schème), qui ont été
proposées par le 3GPP dans la Release 5 et résumées dans
le tableau 3.1. Ainsi, un utilisateur qui serait proche d'une station de base
pourrait se voir attribué, par exemple, une modulation 16-QAM avec un
taux de codage de 3/4 et dont le terminal supporte 15 codes (en
parallèles). Cette combinaison lui permettrait de
bénéficier d'un débit de l'ordre de 10.7 Mbps sur le lien
descendant. L'AMC a été intégré aux
fonctionnalités des Nolde B supportant la technologie HSDPA. Par
conséquent, la station de base a la responsabilité de
sélectionner le schéma de modulation et de codage
approprié. Selon le nombre de codes parallèles pouvant être
supporté par le terminal, nous obtenons plusieurs classes de terminaux
HSDPA spécifiées dans la Release 5 avec un total de 12
catégories. Ces catégories permettent d'avoir des débits
pics allant de 0.9 à 14.4 Mbps, comme le montre le tableau 3.2 [6]. Les
dix premières classes de terminaux doivent être capables de
supporter la modulation 16-QAM, alors que les deux dernières
MCS
|
Modulation
|
Taux de
|
|
Débit max
|
|
|
|
|
5codes
|
10 codes
|
15 codes
|
1
|
|
1/4
|
600 kbps
|
1.2 Mbps
|
1.8 Mbps
|
2
|
QPSK
|
2/4
|
1.2 Mbps
|
2.4 Mbps
|
3.6 Mbps
|
3
|
|
3/4
|
1.8 Mbps
|
3.6 Mbps
|
5.4 Mbps
|
4
5
|
16-QAM
|
2/4
3/4
|
2.4 Mbps
3.6 Mbps
|
4.8 Mbps
7.2 Mbps
|
7.2 Mbps
10.7 Mbps
|
Tableau 3 3 -
Schémas de modulation et de codage MCS sur le lien DL
UE Category
|
Transport block Size
|
Number of HS-PDSCH
|
Modulation
|
Debit en Mbps
|
1
|
7168
|
5
|
16-QAM
|
1,2
|
2
|
7168
|
5
|
16-QAM
|
1,2
|
3
|
7168
|
5
|
16-QAM
|
0,8
|
4
|
7168
|
5
|
16-QAM
|
1,8
|
5
|
7168
|
5
|
16-QAM
|
3,6
|
6
|
7168
|
5
|
16-QAM
|
3,6
|
7
|
14411
|
10
|
16-QAM
|
7,2
|
8
|
14411
|
10
|
16-QAM
|
7,2
|
9
|
17237
|
12
|
16-QAM
|
10,2
|
10
|
25558
|
15
|
16-QAM
|
14,4
|
11
|
3319
|
5
|
QPSK
|
0,9
|
12
|
3319
|
5
|
QPSK
|
1,8
|
Tableau 3 4-
Catégories de terminaux supportant la technologie HSDPA
2.7
Fonctionnement de la couche physique
Le processus,
illustré à la Figure 2.11, montre les procédures de
fonctionnement de la couche physique HSDPA, qui se résument par les
étapes suivantes :
1. L'Ordonnanceur dans le
Node B évalue les conditions du lien radio pour les différents
usagers en calculant la quantité de données présentes dans
le buffer pour chacun des utilisateurs ainsi que le temps écoulé
depuis la dernière fois qu'un utilisateur donné, ayant des
transmissions en attente, a été servi. Les critères devant
être pris en compte dans l'Ordonnanceur dépend de
l'implémentation spécifique au fournisseur du réseau
mobile
2. Une fois qu'un terminal
a été choisi être servi à un certain intervalle TTI
donné, le Node B identifie les paramètres HS-DSCH
nécessaires, comme par exemple le nombre de codes disponibles, la
possibilité d'utiliser ou non la modulation 16-QAM ou alors les
limitations des capacités des terminaux. Le type de mémoire soft
du terminal détermine également le type de retransmission HARQ
pouvant être utilisé ;
3. Le Node B commence à transmettre le HS-SCCH deux
slots avant le TTI HSDSCH correspondant pour communiquer au terminal les
différents paramètres. Le terminal peut sélectionner un ou
plusieurs canaux HS-SCCH (parmi un ensemble limité à quatre)
à condition qu'il n'y ait pas de données dans la trame HS-DSCH
précédente
4. Le terminal gère les différents canaux
HS-SCCH qui sont mis à sa disposition par le réseau et une fois
que le terminal a décodé la Partie d'un HS-SCCH qui lui est
destiné, celui-ci commence à décoder le reste et va
stocker dans le buffer les codes nécessaires du HS-DSCH;
5. Ayant déjà décodé les
paramètres du HS-SCCH de la Partie 2, le terminal peut déterminer
à quel processus ARQ appartiennent les données et si celles-ci
doivent être combinées avec l'information déjà
présente dans le soft buffer ;
6. Par la suite, le terminal envoie un indicateur ACK/NAK sur
lien montant, en fonction de la vérification CRC appliquée aux
données HS-SCCH;
7. Si le réseau continu à transmettre des
données pour le même terminal sur des intervalles TTI
consécutifs, le terminal va rester sur le même HS-SCCH
utilisé lors du précédent
U1 U2
Un
Evaluation des conditions du lien radio pour chaque
utilisateur
Ordonnanceur
Identification des paramètres HS -DSCH: nombre d de
codes parallèles type de modulation
type de HARQ : QPSK ou 16-QAM catégorie du terminal (de
1 à 12)
Choix d'un usager
Node B
Transmission des canaux
Décodage des informations de
contrôle
du canal HS-SCCH
de contrôle
HS-SCCH
Node B
Communication des paramètres
au terminal
Node B
Déterminer si les données doivent
être
combinées
Si le réseau continue de
transmettre au même terminal
sur des TTI consécutifs
UE
Envoi d'un ACK ou NAK
Le terminal ne change pas de HS -SCCH
Figure 2 11 - Fonctionnement de la
couche physique du HSDPA
2.8 FCSS (Fast Cell Site
Selection)
Le FCSS permet à l'utilisateur de choisir le Node B
ayant les meilleures caractéristiques pour une transmission de
données. L'avantage de cette technique permet à l'utilisateur
d'obtenir un débit plus élevé.
2.9 Interval de temps de
transmission (TTI)
L'intervalle de temps de transmission (TTI) est un
paramètre supplémentaire de la technologie HSDPA utilisé
par le HS-DSCH. Ce TTI est de 2ms par canal (au lieu de 10 ms pour la version
R99), ce qui permet de supporter un trafic et un nombre d'utilisateurs
importants. , La diminution de l'intervalle de temps de transmission TTI ainsi
qu'une grande distribution dans l'architecture HSDPA, comme l'illustre la
Figure 2.1, permettent de réduire les délais d'attente de
manière significative par rapport à la version
précédente R99 du WCDMA. En effet, les stations de base ou node B
sont dotées d'avantage d'intelligence de manière à
pouvoir prendre en charge les retransmissions de paquets erronés, une
fonctionnalité qui était jusque là du ressort du RNC. Le
déplacement de cette fonctionnalité vers les Node B permet ainsi
de se rapprocher encore plus de l'utilisateur et par conséquent de
réduire les délais dus à la retransmission. Ces
modifications permettront également d'obtenir des informations
récentes sur la qualité du lien radio, grâce à
l'indicateur CQI (Channel Quality Indicator) illustré à la Figure
2.1
2.10
Modélisation du HSDPA et Sortie de Cellule
Ce paragraphe présente un modèle
semi_analytique pour l'estimation du flux de sortie de cellules. Ce
modèle tient compte de l'effet de la combinaison HARQ, de l'AMC, et
du programme d'ordonnancement
L'analyse est divise en plusieurs étapes, dont la
première phase correspond à HARQ et les prochaines
étapes couvrent modélisation d'AMC et programme d'ordonnancement.
À la fin de ces trois analyses, un modèle pour chaque algorithme
d'ordonnancement est rapporté.
2.10.1 HARQ
Il a été démontré que le nombre
moyen de transmissions NS dû à HARQ peut être
évalué en utilisant l'expression suivante :
4.1
Pe est le taux d'erreur
block, Ps est la probabilité des erreurs après combinaison
logique ( soft combining ) de deux successive erreur transmission utilisant
l'algorithme chase combining
2.10.2
AMC
Pour suivre la variation des conditions de canal,
AMC est employé dans HSDPA où le MCS ( M ordre de la modulation
t taux de codage N nombre de codes de HS-DSCH ) est choisis de
façon dynamique selon la valeur SIR . Notez que pour N, le nombre
maximum des codes disponibles de HS-DSCH est 15. Posons SIR = pour le récepteur Rake et kmcs la
probabilité de choisir une schema de modulation et de codage
mcs. La probabilité de choisir la combinaison
donnée mcs peut être exprimée comme suit :
4.2
Pour un schéma de transmission d'ordre supérieur
Avec
Une fois que la probabilité kmcs est calcule, la
sortie de cellules peut être estimée par des expressions
analytiques données pour chaque programme Ces expressions sont le sujet
de la prochaine section.
2.10.3
Ordonnancement rapide (Fast Scheduling)
L'ordonnancement est l'un des plus importants
mécanismes de gestion de ressources dans les réseaux HSDPA. ,
Qui permet de déterminer à quel utilisateur il convient de
transmettre dans un intervalle de temps donné. C'est un
élément déterminant dans la conception puisqu'il
répartit l'allocation du canal entre les utilisateurs et ainsi, d'une
manière générale, détermine le comportement global
du système. Un débit optimal du système peut être
obtenu en affectant toutes les ressources radio à l'utilisateur avec les
meilleures conditions radio du canal, néanmoins un Ordonnanceur, en
pratique, devrait avoir plusieurs niveaux d'équité. Ainsi, en
choisissant différents algorithmes d'ordonnancement, les
opérateurs peuvent adapter sur mesure le comportement du système
à leurs besoins. Alors, il n'est pas nécessaire de standardiser
les algorithmes utilisés, au lieu de cela, les Opérateurs
peuvent choisir différents critères. La prédiction de la
qualité du canal, la capacité de la cellule, ainsi que des
classes différentes de priorités de trafic sont des exemples
d'informations sur lesquels l'Ordonnanceur pourrait baser ses
décisions.
On peut découper ces algorithmes d'ordonnancement en
deux grandes catégories :
ü Les méthodes d'ordonnancement «
intelligentes »
ü Les méthodes d'ordonnancement « aveugles
».
Les algorithmes de la première catégorie basent
leurs décisions sur les mesures récentes (i.e.
exécuté à chaque TTI) des conditions de canal du terminal
mobile. La deuxième catégorie, quant à elle, contient des
algorithmes qui ne basent leurs décisions d'ordonnancement sur aucune
mesure. Un exemple d'algorithmes simples faisant partie des ces méthodes
aveugles est le RR (Round Robin), dans lequel les utilisateurs sont desservis
dans un ordre cyclique en faisant abstraction des conditions de qualité
du canal. Cette méthode est unique de par sa simplicité, et
garantit une distribution équitable parmi tous les utilisateurs de la
cellule.
Parmi les méthodes d'ordonnancement
intelligentes, on peut trouver l'algorithme Max C/I (Maximum C/I), le PF
(Proportional Fair) et le FFTH (Fast Fair Throughput). Le Max C/I dessert
l'utilisateur à tous les TTI avec le débit supportable
instantané le plus élevé. Ce principe de service
possède des avantages évidents en terme de capacité de
cellule, mais il en résulte une absence d'équité de
débit car les utilisateurs ayant de mauvaises conditions radio de canal
sont desservies d'une manière moins fréquente. L'ordonnancement
rapide est l'une des techniques principales utilisées dans HSDPA, le
débit binaire d'utilisateur et la capacité de cellules
dépendront de l'utilisation d'ordonnancement. Pour évaluer la
performance, l'expression analytique de la capacité cellulaire et le
débit binaire utilisateur sont spécialisées à
quatre : FT, RR, Max C/I et PF
2.10.3.1 Méthode de Round Robin (RR)
Cet algorithme choisit les paquets d'utilisateur de
façon cyclique. Dans cette méthode, le nombre de time slots
alloués à chaque utilisateur est choisi de telle sorte qu'il
soit inversement proportionnel aux débits d'utilisateurs, ainsi le
même nombre de bits est transmis pour chaque utilisateur dans un cycle,
donc le même de nombre de TTI est affecte pour chaque utilisateur
Évidemment, cette méthode est la "plus
juste" dans le sens qu'elle garantit une distribution équitable entre
tous les utilisateurs de la cellule. Cependant, il y a deux
inconvénients y sont liés. Le premier est qu'il néglige
les conditions de qualité du canal radio pour chaque utilisateur, ainsi
les utilisateurs de qualité radio mauvaise peuvent connaître de
faibles débits, tandis que les utilisateurs en bonne qualité
radio peuvent même ne recevoir aucune donnée. Cela va à
l'encontre des objectifs du HSDPA car les débits seraient moindres. Le
deuxième inconvénient de la méthode RR est qu'il n'y a
aucune différentiation de la qualité de service pour
différentes classes d'utilisateurs. Si Nu est le nombre d'utilisateur
dans une cellule, la probabilité qu'un TTI soit affecte à un
utilisateur est 1/Nu. Par conséquent, le débit binaire moyen de
l'utilisateur i est donné par [27-29]
ü est le débit
binaire relatif au schema de transmission m durant le TTI
ü est le nombre moyen de transmissions de paquet d'utilisateur i
dû à HARQ
ü W est le débit chip
ü SF : est le facteur d'étalement ( spreading
Factor )
ü paramètre varie avec la position du mobile,
Le débit de sortie de la cellule est donne par :
4.4
(source : Thèse sur l'étude multicouche dans le
système HSDPA présenté par Mohamad ASSAAD de l'Ecole
Nationale Supérieure Télécommunications)
2.10.3.2 Méthode FFTH (Fast Fair Throughput)
L'algorithme FT assigne le canal de HS-DSCH aux
utilisateurs pour réaliser le partage de débit de sortie de
la cellule entre les utilisateurs. Pendant chaque TTI, le canal est affecte
à l'utilisateur avec le plus faible débit moyen de donne. Cet
algorithme fournit des ressources partages équitablement mais ne
tient pas compte des informations instantanées du canal. Par
conséquent, IL néglige l'adaptation rapide de lien de HSDPA
ainsi résulte une sortie moyenne de cellules faibles. Le FT alloue un
débit fixe pour les utilisateurs indépendamment des conditions
du canal et de la position du mobile. Dans ce cas la capacité de la
cellule peut être estime comme suite : Le flux global du canal
HS-DSCH en symboles/sec est donné par [44] :
4.5
Puisque le canal de HS-DSCH est partagé par plusieurs
utilisateurs dans un temps donné T (c.-à-d., temps d'observation
de canal) nous avons alors
4.6
*- Rsi est le débit pour chaque utilisateur en
symbole / second, Ti la dure de connexion. Le schéma de modulation et
du codage change durant le transfert des paquets, la condition
précédente conduit à :
4.7
0ù Ri est le débit binaire de service. A cause
de l'effet de HARQ, Ns, i paquets sont transmis au lieu d'un paquet, ayant
tous les mêmes schémas de modulation et de codage. Par
conséquent, le nombre d'utilisateurs Nu dans la cellule peut être
évalué en utilisant l'équation suivante :
4.8
L'équation (4.8)
doit être résolue pour que Nu dérive la sortie de cellules
comme
4.9
(source : Thèse sur l'étude multicouche dans le
système HSDPA présenté par Mohamad ASSAAD de l'Ecole
Nationale Supérieure Télécommunications)
2.10.3.3 Méthode du Maximum C/I (Signal sur
Interférence)
Le Max C/I dessert l'utilisateur durant chaque TTI avec
le débit supportable instantané le plus élevé.
Pendant chaque TTI, le canal HS-PDSCH est alloué à l'utilisateur
ayant les meilleures conditions de canal . En fait, le Node B utilise
l'indicateur de qualité de canal (CQI) et alloue le canal HS-PDSCH
à l'utilisateur avec le meilleur SIR (Signal to Interférence
Ratio). Dans la situation idéale, quand les conditions du canal des
utilisateurs présentent les mêmes statistiques, cette
stratégie maximise toute la capacité du système et du
débit de transmission aux différents utilisateurs. En
réalité, les statistiques sont Asymétriques puisque les
utilisateurs peuvent être plus près de la station de base avec
meilleur SIR , ou moyen SIR au frontière de cellules dans des
conditions relativement mauvaises. Par conséquent, en employant la
stratégie de maximum C/I dans la pratique, le canal est toujours
affecte avec l`ordre supérieur mcs (c à d debit moyen de
transmission élevé ) mais prive les utilisateurs avec des
conditions de canal relativement mauvaise . Ce principe de service
possède des avantages évidents en terme de capacité de
cellule, mais il en résulte une absence d'équité de
débit car les utilisateurs ayant de mauvaises conditions radio de canal
sont desservis d'une manière moins fréquente. Si Nu est le
nombre d'utilisateur dans la cellule, la probabilité pour que le TTI
soit alloue à l'utilisateur i est :
4.10
Une fois calcule cette probabilité, le débit
binaire de l'utilisateur i est fourni par :
4.11
La sortie de la cellule dans ce cas est :
4.12
(source : Thèse sur l'étude multicouche dans le
système HSDPA présenté par Mohamad ASSAAD de l'Ecole
Nationale Supérieure Télécommunications)
2.10.3.4 Méthode du Proportionnel Fair
L'algorithme PF est un compromis entre maxi(C/I) et FT.
Dans chaque TTI, le canal est assigné à l'utilisateur ayant le
max(r /S) où r est le taux de transmission pour ce TTI et S est le
débit binaire moyen transmis dans le précèdent TTI .
Un modèle détaille du PF est difficile à
dériver puisque pendant chaque TTI la probabilité pour assigner
le canal à un utilisateur i dépend de tout le TTIs
précédent. Pour éviter cette difficulté . Dans la
littérature le PF est modélise en considérant la
condition max(r /S ) aussi équivalent à max(SIR/S) et S comme
la limite infinie du débit binaire reçu instantané .
Selon chaque valeur de SIR, il y a un taux possible donné r de
transmission dans un TTI donné ; en fait, les valeurs de r correspondent
à une Marge de SIR . Puisque le nombre schéma de modulation et de
codage est grand (égale à 30 ), cette hypothèse est
toujours une bonne approximation, et il peut etre pris comme étude
asymptotique de l`algorithme PF. Par conséquent, si Nu est le nombre
d'utilisateurs dans la cellule, la probabilité qu'un TTI est
assigné à un utilisateur donné peut être employer
évalué
Par conséquent le débit binaire atteint par
l'utilisateur i est obtenu par :
Le flux de sortie de la cellule est donne par :
(source : Thèse sur l'étude multicouche dans le
système HSDPA présenté par Mohamad ASSAAD de l'Ecole
Nationale Supérieure Télécommunications)
Figure 2 12 Debit de sortie de la cellule HSDPA pour
différent algorithme
Figure 2 13 Débit
de sortie de la cellule HSDPA pour différent algorithme
Résultats
Ces Modèles Analytique présentent une
estimation du débit de sorties des cellules et débit binaire pour
chaque utilisateurs pour chaque des méthodes : RR ,FT,Max C/I ,et
PF : Comparer le résultat de ces quatre méthodes permet de
déterminer la différence entre la capacité obtenus
à partir des modèles analytiques que devrait fournir la sortie de
cellules et le débit binaire utilisateur particulièrement pour
des utilisateurs en environnements radio défavorables au
frontière de la couverture de la cellule . Les schémas 2.12 et
2.13 montrent respectivement, le flux de sortie moyenne des cellules et la
fonction de distribution cumulatif d`un utilisateur situe a 900 m du node B et
8 utilisateur sont active dans la cellule .
Les résultats prouvent que la méthode de
maximum C/I réalise une capacité cellulaire plus
élevée des autres (approximativement 3 Mbps pour 15 codes du
canal de HS-DSCH disponible). L'algorithme FT présente un flux de
sortie inférieure de l'autre algorithme (approximativement 1.7 Mbps
pour 15 codes disponibles de canal HS-DSCH) avec une équité
parfaite : approximativement 215 kbps par utilisateur. La méthode PF
représente un bon compromis entre l'équité et la
capacité. Elle réalise une sortie de cellules approximativement
égale à 2.4 Mbps tout en garantissant une équité
acceptable
Conclusion :
Nous avons étudié les
améliorations apportées par la technologie HSDPA sur le lien
descendant du réseau UMTS. Ces améliorations sont possibles
grâce aux différentes techniques d'AMC, de HARQ et canal partage
et des algorithmes d'ordonnancement rapide. Ainsi le HSDPA offre beaucoup
d'avantages par rapport à l'UMTS tels que l'utilisation d'une bande
passante importante combinée avec un délai court de la
transmission des données et l'augmentation de la capacité de
transmission sans avoir besoin de fréquences supplémentaires.
Chapitre 3 : TCP au dessus des réseaux sans
fils
Introduction
Les applications et les services établis
au-dessus du protocole TCP/IP représentent aujourd'hui une grande part
du volume de trafic global dans l'Internet et les réseaux sans fil. Au
début les mécanismes de contrôles de TCP ont
été conçus pour des réseaux de bande à
largeur élevés , faible retard et à congestion
limitée ne sont en fait pas appropriés aux systèmes sans
fil. Les réseaux sans fil sont caractérisés par des pertes
élevées dues aux phénomènes de propagation
affaiblissements radio, retard élevés, et faible largeur de
bande. Les dégradations au dessus de l'interface air entraînent
des pertes paquets prises de manière erronée comme
congestion. Ceci se produit en dépit des mécanismes de
contrôle de lien radio qui utilisent la technique de retransmissions
pour réaliser des communications sans erreur au-dessus de l'interface
d'air. Ces techniques cause aussi un retard plus grands comparés au
délais TCP , ayant pour résultat la dégradation de la
sortie . En fait, le TCP interprète mal les erreurs au dessus de
l'interface Radio et les prisent comme étant une congestion et
réagit en réduisant la fenêtre de congestion et par
conséquent la sortie globale d'application.
Pour faire face aux caractéristique des liaisons
sans fils et pour réaliser une meilleure performance TCP au dessus
réseaux sans fil , plusieurs solutions et perfectionnements de TCP
ont ete propose dans la littérature . Ces solutions sont
suggérées pour l'intégration dans différentes
couches, et varie de la couche liaison à la couche transport . Ce
chapitre fournit une vue d'ensemble de ces perfectionnements avec les avantages
et les inconvénients de chaque variante de TCP.
3.1 Facteurs d'environnement sans
fils
Avant de décrire les solutions qui ont
été proposé pour augmenter les performances du TCP au
dessus des liaisons Radio, la présente section donne une brève
aperçue sur l'ensemble des facteurs de base qui affectent les
caractéristiques de TCP dans les systèmes sans fil.
3.1.1 Limitation de largeur de
Bande et Durée RTT
La majorité des systèmes sans fil fournie
un faible débit de transmission de données aux utilisateurs (par
exemple, réseau local de radio ( WLAN , GPRS UMTS ) . La largeur de
bande limitée est l'une des facteurs principaux avec les
affaiblissements du canal qui dégradent les performances TCP au dessus
des liaisons sans fils.
L'Internet et d'autres réseaux câbles de
donnes fournissent une largeur de bande plus élevée que les
réseaux sans fil ( par ex 100 Mbps partages sur un réseaux
locale ). Cette différence de largeur de bande entre réseaux
fixe et réseaux sans fil affecte le comportement des noeuds, qui relie
les deux réseaux (par exemple, GGSN dans UMTS). [1-4], Ces noeuds
reçoivent plus de paquet TCP qui sont achemines par le réseau
sans fil. Ceci produit un retard excessif en raison des paquets stocker dans
les tampons de ces noeuds. Ce retard fait augmenter le RTT des connexions TCP
et gonfle le RTO calculé. Ceci limite l'augmentation de la taille de la
fenêtre de congestion TCP, ayant pour conséquence une limitation
de sortie de la connexion. En outre, la congestion est considère plus
nuisible s'elle se produit durant la phase de rétablissement rapide (
fast-recovry ) (dans le cas de Triple duplicate ) et durant la phase
démarrage lent (slow start (dans le cas Time out ) . Les segments
en file d'attente dans le dernière noeud résultent de la
saturation des tampons , empêchant les pertes de paquets , et fait
augmenter la congestion. Ce point a été étudié
dans la littérature pour estimer la capacité Optimale du tampon
de la dernière interface. 5,3]
Dans UMTS (respectivement HSDPA), le tampon RLC dans le
RNC (respectivement la MAC_hs dans le Node B) affecte pareillement les
performances du TCP . La saturation des tampons du dernier noeud explique le
comportement du jet du slow start [1-4] observé essentiellement dans
les études du TCP au dessus des réseaux sans fil ( par exemple,
GPRS , UMTS). En fait, au début de la connexion TCP, le seuil du
démarrage lent ( slow start ) est placé à une valeur
arbitraire qui est en général haute. La taille de fenêtre
de congestion évolue jusqu'à ce qu'une perte de paquet soit
détectée. Notez que l'émetteur TCP détecte une
congestion après un RTT que la congestion a eu lieu dans le
réseau ; le RTT est Grand dû au faible transmission au dessus
du liens radio et au retard du tampon du dernier noeud . Durant ce temps,
l'expéditeur de TCP, ayant une taille de fenêtre plus grande que
la capacité de réseau, continue la transmission de paquet,
surcharge le réseau, et rend la congestion plus grave. Comme la
congestion s'est produite, le seuil de la phase de démarrage lent (
slow start ) obtient progressivement une valeur appropriée. La phase
d'évitement de congestion ( congestion - avoidance ) , assurant
l'évolution de fenêtre jusqu'à la fin de démarrage
lent ( slow start ) , est chargée de ralentir le taux d'envoi selon la
capacité de réseau de sorte que les prochains saturations soient
moins
3.1.2 Taux de perte
élevé
La cause principale des pertes des paquets au
dessus de l'interface air est le niveau élevé des erreurs. Ces
pertes produisent des acquittements triple duplicate ou Time out . Triple
duplicate se produit quand la destination reçoit un segment incorrect
et reçoit correctement les segments suivants, qui ont des nombres de
séquence plus élevés. Dans ce cas-ci, le TCP acquitte
les segments sans erreur, qui mène à une retransmission rapide et
à un mécanisme ( fast recovery ) rétablissement rapide
dans la connexion TCP . En outre, la faible largeur de bande, le retarde
élevé, et les pertes peuvent entraîne à une absence
du rétroaction du récepteur à l'émetteur et par
conséquent peuvent mener à un arrêt dans la connexion TCP.
Pour traiter le problème des pertes et des
erreurs, la majorité de systèmes sans fil met en application un
protocole de retransmission appelé ARQ . Le protocole
d'ARQ assure la réception sans erreur des paquets au récepteur
au-dessus de l'interface d'air. Il, cependant, trompe le protocole de TCP qui
produit des retransmissions inutiles de paquet par ses mécanismes de
congestion. La couche inférieure, particulièrement la couche de
MAC RLC, peut recevoir un paquet incorrect et peut correctement recevoir les
paquets suivants. Le protocole d'ARQ est responsable de retransmettre le paquet
incorrect jusqu'à ce qu'il soit reçu correctement.
Dans ce cas-ci, deux phénomènes peuvent
se produire. D'abord, la couche inférieure peut livrer les paquets
reçus correctement et dans l'ordre à la couche supérieure.
Dans ce cas-ci, la couche de TCP reçoit dans l'ordre les paquets TCP ,
mais le protocole d'ARQ cause un retard dans la réception de la couche
de TCP. Ceci peut mener à un retard dans l'acquittement et peut
produire ( Time out ) un arrêt de la connexion TCP.
Notez que ce scénario se produit fréquemment dans le
système d'UMTS, où les paquets sont livrés à la
couche supérieure dans l'ordre. En second lieu, la couche
inférieure peut fournir les données correctement mais hors ordre.
Dans ce cas-ci, la couche de TCP peut recevoir des segments ayant des nombres
de séquence au delà que prévus. Ceci peut
générer ( triple duplicate ) reproduction triple ou d'un
arrêt ( time out) , selon le retard de réception de segment
prévu par la couche de TCP.
L'aspect aléatoire et l`aspects bursty des erreurs
sur le lien sans fil rendent l'effet des pertes plus nocif. En fait, la
réception successive des paquets sans erreur (c.-à-d., sans ARQ
retarde) réduit le RTO calculée. Quand les erreurs se produisent,
des paquets incorrects sont reçus successivement. Ceci produit un
retard successifs et les arrêts ( Time out ) graves, qui ont comme
conséquence des dégradations de sortie de TCP.
En conclusion, il important de noter que les faux
arrêts (time out), produits par l'aspect aléatoire des erreurs
des liens sans fil , peuvent avoir comme conséquence
l'ambiguïté de retransmission [7] . Ceci signifie qu'après
que la retransmission d'un segment interprété comme
abandonné, l'expéditeur de TCP ne sache pas si l'acquittement
arrive pour le segment retransmis ou pour le premier.
3.1.3 Mobilité
La dégradation de performance TCP dans les
réseaux sans fil peut également être provoquée en
partie par la mobilité des utilisateurs lors de la communication.
Dans les réseaux cellulaires (par exemple, GPRS,
UMTS), la mobilité d'utilisateur mène au transfert ( hand over )
pendant la communication. Pendant ce processus de transfert ( handover ) ,
l'information nécessaire doit être transférée de la
station de base précédente à la nouvelle station de base.
Selon la technologie utilisée, comme UMTS ou HSDPA, le transfert aurait
comme conséquence un retard excessif ou déconnexion. Le
transfert peut être intra technologie où les deux cellules sont
couvertes par le même système cellulaire, et inter technologie
où différentes technologies sont déployées en
cellules adjacentes, UMTS et HSDPA. Le transfert inter système est connu
pour être plus nocif, puisque dans certains cas les données
stockées dans le RLC ou le tampon du node B ne sont pas
transférées à la nouvelle cellule. Les donnes perdues
au-dessus de l'interface air conduit à des dégradations
importantes de sortie globale de TCP.
3.1.4 Asymétrie de la
largeur de bande
Le TCP utilise les acquittements entrants dans une
direction pour estimer le RTT et contrôle la transmission des paquets
dans la direction opposée [8]. Dans les deux directions, le retard entre
les paquets reçus (ou les acquittements reçues) dépend de
la largeur de bande de lien de chaque direction. Pour avoir un comportement
normal de TCP, les acquittements devraient maintenir le même intervalle
de transmission des données dans l'autre direction. Dans les
systèmes sans fil, la liaison descendante et la liaison montante ne
fournissent pas la même largeur de bande. Par exemple, dans la version 5
UMTS, l'utilisation de HSDPA fournit un taux plus élevé de
transmission sur la liaison descendante. Que Sur la liaison montante,
l'utilisateur continue à utiliser le canal de DCH, qui fournit un taux
limité de transmission. Ceci cause une asymétrie entre les deux
sens. Dans [9, page 1] , le réseau asymétrie est
définie comme suit : le réseau montre l'asymétrie en
respectant la performance de TCP, si la sortie réalisée n'est pas
seulement une fonction des caractéristiques de lien et de trafic de sens
de transmission (c.-à-d., de downlink), mais dépend de
manière significative de ceux de l'autre direction (c.-à-d., de
liaison montante) . Il est important de noter que les segments de
données n'ont pas la même taille que leur correspond acquittement.
En plus de la largeur de bande, le rapport de taille entre les segments de
données du sens descendant et leur correspondant acquittement
au-dessus du sens montant, de même pour la taille de données
transmise au-dessus de la liaison montante, devraient être
considérés pour décider si un réseau montre
l'asymétrie de réseau.
3.2 Améliorations de la
Performance TCP
Pour augmenter les performances du TCP au dessus des
systèmes sans fil , beaucoup de propositions ont été
développées dans la littérature, qui essayent de s'
approcher de l'une de ces deux comportements idéal :
ü L'expéditeur de TCP devrait simplement
retransmettre un paquet perdu à cause erreurs de transmission, sans
ne prendre aucune mesure de contrôle de congestion ;
ü Les erreurs de transmission devraient être
récupérées d'une manière transparente et efficace
par le réseau.
Selon leurs comportements, les techniques proposées
peuvent être classifiés dans trois catégories [10-13]:
ü Solutions niveau liaison fiabilise,
ü Solutions de division de la connexion,
ü Solutions de bout en bout.
Chaque type de solution est décrit pour
acquérir une meilleure compréhension des interactions qui
peuvent se produire entre la liaison radio et le protocole TCP.
3.2.1
Présentation des procédés
ü Les procédés de bout en bout aident
à travers l` émetteur TCP de gérer les pertes suivant
deux techniques :
- Premièrement, ils utilisent la forme
d'acquittements sélectifs, (SACKs ), qui permet à
l'émetteur de retrouver les multiples paquets perdus sans avoir recours
au timeout ; - Deuxièmement, ils permettent à
l'émetteur de distinguer les paquets perdus sous congestion et ceux
perdus hors congestion en utilisant un mécanisme dite ELN ( Error
Loss Notification )
ü Les procédés de division de la connexion
masquent complètement la liaison sans fil pour l'émetteur en
terminant la connexion TCP à la station de base. De tels
procédés font appel à deux connexions
séparées :
-Une connexion fiabilisée entre la station de
base et la destination hôte (ou mobile) ;
- Une autre connexion entre l'émetteur et la
station de base faisant appel à des techniques telles que les
acquittements sélectifs.
ü Les procédés à couche de liaison
fiabilisée, se positionnent entre les deux précédents. Ces
procédés masquent les pertes des liaisons au TCP émetteur
par des retransmissions locales et éventuellement par des corrections
successives d `erreurs (FEC) à travers la liaison sans fil.
3.2.1.1 Solutions niveau liaison
Les solutions niveau liaison visent que la couche
liaison sans fil se comporte comme celles du réseau câble
avec respect des protocoles de haut niveau. L'idée fondamentale est que
les erreurs au dessus de la liaison sans fils devraient être
récupérés dans le système sans inclure le TCP dans
le processus de rétablissement. En d'autres termes, ces solutions
essayent de masquer ou cacher le rétablissement d'erreur au TCP. FEC
combiné avec le protocole d'ARQ est employé dans la
majorité des systèmes sans fil pour fournir le service fiable
requis par les couches supérieures, telles que le TCP. ARQ peut
entraîner des fausses retransmissions à la couche TCP,
particulièrement quand le niveau d'erreur dans la liaison radio est
élevé. Aucune approche n'est appropriée du point de vue
efficacité ou interaction de couche. Des corrections additionnelles
doivent être introduites dans la couche liaison pour améliorer
les performances TCP. Les solutions de la couche liaison peuvent être
prisent en compte ou ignores. Différents hypothèse,
complexité, performance globale du système est observe dans
chaque cas.
3.2.1.2 Split Solutions
Pour protéger l'expéditeur TCP des
retransmissions erronées provoquées par les erreurs de la
liaison Radio, plusieurs solutions proposent de diviser la connexion de TCP
en deux portions au point où les deux réseaux de câble et
sans fil se réunissent, puisque ces deux sous-réseaux n'ont pas
les mêmes caractéristiques. Ce point est l'interface de passage au
réseau sans fil change d'un système à l'autre. Dans les
réseaux cellulaires comme GPRS et UMTS par exemple, il correspond au
GGSN . Cette division de la connexion est manipulé par un logiciel
implémente dans ce passage sans fil. La première connexion de
l'expéditeur au passage sans fil emploie le TCP, tandis que l'autre
utilise un protocole de transport fiable . En conséquence, la
performance TCP dans la première connexion est affectée
seulement par la congestion dans le réseau, et les erreurs de
réseau sans fils sont cachées à l'expéditeur.
3.2.3 Solutions point à
point
Cette catégorie de solution inclut des changements
à la mécanique de TCP et comporte plus de coopération
entre l'expéditeur et le récepteur (d'où la nomination
point à point ) le bout à bout nommé) pour séparer
des pertes et la congestion de réseau sans fil.
Conclusion :
La simplicité, la fiabilité et le contrôle
de congestion que présente TCP, l'ont rendu le protocole le plus
utilisé au niveau transport dans le monde Internet. Pour TCP, la perte
est un indicateur de congestion. Lors d'une perte, la fenêtre de
congestion de TCP est réduite, une chose mauvaise pour le débit
TCP sur des liens bruyants, où les pertes sont causées par
d'autres raisons que la congestion, comme le cas des liens sans fil. Ceci
freine la convergence vers les réseaux sans fil et l'intégration
des services multimédia dans les réseaux mobiles.
Plusieurs solutions sont proposées, au niveau
transport, au niveau liaison, au niveau antennes, etc.. Parmi ces solutions,
l'utilisation de FEC et de ARQ au niveau liaison s'avèrent la plus
adaptée à notre application. Un modèle très
promettant consiste à combiner la FEC et l'ARQ afin d'améliorer
davantage la performance de TCP sur les liens sans fil.
Chapitre 4 : Effet du Protocole TCP au dessus du système
UMTS-HSDPA
Introduction
La Troisième génération des
systèmes cellulaires tels qu' UMTS et son perfectionnement comme HSDPA
sont conçus pour offrir aux utilisateurs, en plus de la parole, des
nouveaux services multimédia et d`accès aux réseaux
informatiques privés et publics tels que l'Internet. Une telles
techniques sans fil avancées se basent souvent sur l'utilisation de la
modulation et le codage adaptatif, la technique de retransmission des blocs
incorrects, et les algorithmes d'ordonnancement La source principale de
perte de paquet dans les systèmes sans fil est les erreurs de
transmission radio génères par les phénomènes de
propagation. Les techniques de protection du lien sans fils telles que le
codage du canal et l'entrelacement ne sont assez pas efficaces pour corriger
toutes les erreurs éprouvées au-dessus du lien radio.
L'utilisation d'ARQ pour retransmettre les paquets incorrects est obligatoire
pour réaliser une transmission par radio sans erreur. Cependant,
l'utilisation d'ARQ introduit un retard additionnel dans la livraison due
aux retransmissions. Or le protocole TCP interprète ce retard de
livraison comme congestion dans les réseaux fixes et d'Internet.
Puisque la majorité des services Internet est base sur le protocole
TCP, on s'attend à ce qu'il manipule une grande partie de trafic de
donne (dite non real time trafic data ) transporte par le réseau sans
fil . La présence du TCP dans les extrémités de la
connexion est un fait qui doit être pris en considération lors
de l'introduction des techniques avancées . La possibilité de
changement du TCP est a évité puisque ça
été déjà largement déployé. TCP
Reno est la version la plus mise en application et intensivement employé
par les applications et services Internet..
Dans la version 99 UMTS, ARQ sélectif est
implémente au niveau du RNC. Il est utilise par RLC en mode AM dite
« Acknowledgment Mode » . Dans le système de
HSDPA, présenté dans les versions 5 et 6 des 3 GPP ,
l'hybride-ARQ est développé et introduit dans l'entité
MAC-hs du node B . L'interaction entre RLC , MAC-hs et le protocole TCP
doit être analysé pour évaluer effet du TCP sur les
performances du système HSDPA
Les paramètres affectant la performance TCP sont
d'abord définies, par suite un modèle analytique
d'évaluation de cette performance est dérivé. Pour
extraire et présentes les performances TCP dans les versions R 99 et
HSDPA -UMTS
4.1 Performance TCP
La performance du TCP peut être mesurée ou
évalué de différente manière selon le contexte ,
le système utilisé, et l'application transporte . Dans cette
section, la performance TCP est évaluée en utilisant les
paramètres principaux suivants [1]:
v Sortie effective : La sortie effective , appelée
également largeur de bande effective , est le taux de transmission de
données de l'application en bits/s.
v Variation de sortie : Pour certains applications et
services, il est important de connaître la sortie instantanée.
la variation de sortie selon une echelle donne , selon l'application, elle
est très important pour évaluer la performance bout à
bout.
v Temps de transfert de fichier : Le temps nécessaire
pour transférer le dossier entier. Ce paramètre est directement
lié à la sortie effective.
v RTT ( round trip time ) : Le temps entre la transmission
d'un segment et la réception de son acquittement . Cette fois inclut le
retard introduit par les noeuds intermédiaires du réseau , qui
dépend de la distance et de la charge de trafic dans le réseau.
Ce paramètre peut limiter la sortie efficace.
v Variation du retard : représente la variation du
temps de réception des paquets , en d'autre terme la variation du RTT ,
cette variation peut avoir un impact dans l'apparition des
événements du triple duplicate ou time out qui ont
résulte une limitation de sortie et gaspillage de ressources
v Equité
v Ressources :
4.2 Architecture de la
connexion TCP au dessus UMTS-HSDPA
Les connexions typiques TCP entre
l'équipement utilisateur et le serveur par l'intermédiaire 'UMTS
release 99 et les réseaux d'accès de HSDPA sont décris
sur les Figures 4.1 et 4.2. [2,3]. Les data grammes IP sont achemines par
l'Internet au GGSN, qui relie le réseau coeur UMTS à l'Internet.
Le flux des données est expédié du GGSN à
l'équipement utilisateur en utilisant le protocole de données de
paquet (PDP). Une fois que le contexte de PDP est établi, le GGSN
transmet les données au SGSN, qui se base sur les supports de
l`interface Iu pour expédier les données au RNC. La
transmission de données entre le GGSN et le RNC (UTRAN) est assure par
le protocole GPRS (GTP-U GPRS Tunneling Protocol ) [ 3 ]. Dans l'UTRAN , les
données sont transmises à l'équipement d'utilisateur en
utilisant les protocoles d'accès RLC et entités MAC . Par
exemple, le protocole PDCP (Packet Data Convergence Protocol ) est
responsable de la compression de l'information et contrôle redondance
du TCP/IP . Les fonctionnalités de RLC et MAC de l'UMTS release 99 et
HSDPA sont décrits en détail en chapitres 3 et 4. Notez que le
transfert de TCP sur l'interface radio peut être fourni par un ou par
deux entités RLC différente en mode dite AM
« Acknowledged Mode » , appelées radio bearers.
Dans le cas d'un seule radio bearers., l'entité AM RLC
contrôle les segments de données de TCP et leurs acquittements .
Cependant, dans le cas de deux radio bearers., une entité de AM RLC
manipule les segments de données de TCP, et l'autre gère les
acquittements 4 ].
La différence significative entre le transfert
de donnes au dessus de l' UMTS version 99 et le système de HSDPA
résulte dans l'UTRAN. Dans la version 99 d'UMTS, un canal dédie
est établi entre l'équipement utilisateur et le node B pour
assurer le transfert de données sur l'interface air. Le node B et
l'interface Iub réalisent un transfert simple des données au RNC,
qui contrôle la connexion d'équipement d'utilisateur et
l'algorithme ordonnancement entre différentes connexions. Dans HSDPA,
les algorithme d'ordonnancements sont situes dans le node B, et un canal
partagé est responsable de gérer les différents
connexions au -dessus de l'interface d'air. Par conséquent, les
principaux tampons de données sont situé dans le node B au
lieu du RNC, qui ont un effet significatif sur le transport de données
et la connexion TCP. Les pertes des segments dans le réseau sans
fil sont produites selon le niveau du taux d'erreur et les procédures
de handover . Comme indiqué en chapitres 3 et 4, le protocole d'ARQ est
employé pour récupérer ces pertes, mais ceci augmente le
retard de réception des paquets à la couche TCP. Dans la
version 99 d'UMTS, le protocole d'ARQ est mis en application dans le RNC,
tandis que dans HSDPA il est manipulé par l'entité MAC-hs dans
le node B. En outre, l'utilisation des algorithmes de soft combining avec ARQ
dans le node B réduit le retard produit par le protocole d'ARQ. Ceci a
impact direct sur la performance de la connexion et l'efficacité de
système. Notez que dans les deux cas, release 99 et HSDPA, les
données sont livré à la couche de TCP dans l'ordre. Ceci
implique que le retard introduit par ARQ peut seulement produire un time out
de la connexion TCP. Le phénomène triple duplicate se produit
seulement en raison de la congestion d'Internet.
L1
WCDMA
MAC
RLC
PDCP
IP
TCP
L1
WCDMA
L1
L1
L1
MAC
ATM
RLC
UDP/IP
PDCP
GTP-U
L1
L1
ATM
L2BIS
UDP/IP
UDP/IP
GTP-U
GTP-U
L1
L1
L2BIS
L2
UDP/IP
GTP-U
IP
IP
L1
L2
IP
TCP
IP
NETWORK
UE Node B
RNC 3 G SGSN 3G GGS R,host
Figure 4 1 Structure
protocolaire de la connexion TCP au dessus du système UMTS
UE Node B RNC
3 G SGSN 3G GGS
R,host
Figure
4 2 Structure protocolaire de la connexion TCP au dessus du système
UMTS
Lors de l'étude de la performance de TCP dans des
systèmes d'UMTS release 99 ou HSDPA, plusieurs paramètres ou
variables peut agir l'une sur l'autre et affectent l'efficacité de TCP.
Ces paramètres sont
v La version de TCP telle que Reno ou le SACK
v Le seuil du l'algorithme de demarage (Slow-start threshold,
ssthresh )
v La fenêtre de congestion initiale cwnd (1, 2 MSS ou
plus),
v La taille de MTU
v La capacité du tampon du récepteur TCP qui
limite la fenêtre annonce awnd
v RTT dans l'internet , qui a un impact direct sur le flux de
sortie TCP
v Taux de congestion et pertes de segment l'internet
v Taux d'erreur t au-dessus de l'interface d'air et protocole
ARQ utilse (c.-à-d., SR ARQ dans version 99 d'UMTS et HARQ dans
HSDPA)
v RLC MaxDAT, qui indique que le nombre maximal de
retransmissions d'une PDU RLC donnée a Allocation du canal de DCH (par
exemple, spreading facteur , débit binaire) dans la version 99 d'UMTS,
qui a un impact direct sur de valeur globale de RTT
v L'algorithme d'ordonnancement employé dans HSDPA, qui
détermine le taux de transmission au-dessus de l'interface d'air et
variation du retard due à la durée variable de stockage des
données dans les tampons du node B
v Taille de la fenêtre de transmission RLC qui indique le
de nombre maximum de RLC-PDU qui peut être transmis avant de recevoir
acquittement
v Nombre de canaux de HARQ dans HSDPA, qui indique le nombre de
processus parallèles de HARQ qui peuvent être supportes par
l'entité MAc-hs. N'importe quelle augmentation de ce nombre
réduit de manière significative le retard HARQ (comme
expliqué en chapitre 4).
4.3 Comparaison entre RLC,
MAC-hs, et TCP
Le protocole fiable TCP et le mode de AM RLC (ou HARQ
dans HSDPA) fournissent les mêmes services pour la transmission des
donnes telque : la fiabilité, glissement de fenêtre, la
segmentation . Cependant, la différence peut être détecter
dans la gestion de la fenêtre de transmission et l'acquittement de
retour puisqu'elles sont conçues pour différents contextes.
Avant d'étudier la performance de TCP au-dessus d'ARQ dans le
système d'UMTS, l'identification des ressemblances et des
différences dans ces protocoles est nécessaire. Ceci facilite la
compréhension des interactions de TCP et de HARQ
4.3.1 Fiabilité
TCP, RLC, et Mac-hs sont base sur le schéma ARQ pour
récupérer les pertes de paquet. Les trois entités assure
la réception sans erreur des paquets transmis. L'ARQ utilisé dans
le TCP est adapté au protocole go-back-n , où
l'expéditeur de TCP ne retransmet pas nécessairement tous les
paquets ayant un numéros de séquence plus grand que celui du
paquet perdu. Dans les nouveaux versions de TCP (par exemple, TCP SACK )
l'acquittement sélective à ete introduit dans le protocole TCP
[5-7]. ARQ sélectif et le protocole stop-and-wait sont
employés dans le R99 et R5 et R6 de l`UMTS Les pertes de paquet
sont détectées dans le TCP soit par triple duplicate ou time out
. Dans UMTS version 99 et HSDPA un négative acquittement ( NAK )
est transmis et rétroagit pour demander la retransmission de RLC-PDU
dans le cas de e l' UMTS release 99 , ou MAC-hs -PDU dans le cas du HSDPA .
L'acquittement dans le TCP est complètement contrôle par le
récepteur. L'expéditeur n'a aucun contrôle pour demander
un acquittement.
L`acquittement de TCP est intégré dans
l'en-tête du segment TCP qui est champ ACK . Dans la version 99 UMTS,
il est envoyée, périodiquement ou quand un RLC- PDU est
reçu erroné . En outre, l'expéditeur peut demander un
acquittement du récepteur en configurant le bit P ( polling ) contenu
dans l'en-tête de RLC-PDU , il est transmis à travers le champ
(SuFi) porté dans le PDU . Dans HSDPA, l'acquittement de chaque bloc
MAC-hs reçu est transmise au-dessus du canal HS-DPCCH et
multiplexée avec l'indicateur de qualité de canal ( CQI ) . Le
champ d'acquittement de HARQ est déclenché au loin quand il n'y
a aucune information de ACK ou de NACK a envoyée.
4.3.2 Contrôle de flux et
Glissement de fenêtre
TCP, MAC-hs et RLC permettent la transmission des
paquets en utilisant une fenêtre glissante (Sliding Window ) de sorte que
plusieurs paquets soient transmis avant de recevoir un acquittement du premier
paquet dans l'ordre dans la fenêtre de glissement . Dans le TCP, la
taille de fenêtre transmission change dynamiquement selon l'algorithme
de contrôle de congestion. Dans UMTS version 99 , la taille initiale
et maximum de la fenêtre de transmission sont configurées par
l'entité de RRC. Pendant la connexion, le récepteur peut demander
le changement de la taille de fenêtre de transmission.
L'expéditeur informe le récepteur au sujet de ce changement par
le champ SuFi porté dans un PDU Notez que la modification de la
taille de fenêtre peut être due à, par exemple, la taille
limitée du tampon du récepteur l'équipement
d'utilisateur, complexité de réception, ou retard. Dans HSDPA, la
taille de fenêtre transmission indique le nombre de processus
parallèles de HARQ, ou les exemples, qui peuvent être
manipulés par l'entité MAC-hs. Notez que le nombre d'instance
HARQ configuré par l'entité RRC et que jusqu'à huit
canaux de HARQ peuvent être utilisés simultanément, qui
limite la taille maximum de la fenêtre de transmission à huit
PDU-MAC-hs
4.3.3 Segmentation
RLC, MAC-hs, et TCP procèdent à une
segmentation des données reçues des couches supérieures.
Dans le TCP, la taille de segment est variable et est hautement lié
à la taille maximum appelée MSS. MSS est négocié
entre les entités de TCP d'extrémité et est
délimité par la taille du MTU au niveau d'IP . Dans la
version 99 UMTS, la taille de PDU RLC est choisie pendant la configuration de
l'entité RLC. En fait, la taille de PDU est choisie pour éviter
la segmentation des datagrammes d'IP ayant en général une taille
de 40 bytes. Par conséquent, la taille de PDU est
généralement égale à 43 bytes (3 bytes pour
l'en-tête de RLC) à moins que quand le PDCP est utilise . Dans ce
cas-ci, la taille de PDU est adaptée au rapport de compression de PDCP.
Dans HSDPA, la taille de PDU de RLC est choisie comme dans la version 99
d'UMTS. Cependant, la taille de MAC-hs PDU change dynamiquement selon MCS
choisi. Le PDU du MAC-hs est transmis dans un TTI . Chaque RLC PDU
correspond à un ou plusieurs MAC-hs PDU
4.4 Modélisation du TCP au
dessus UMTS-HSDPA
La variation du débit binaire TCP au-dessus
de l'interface radio est due à deux raisons : diminution de la taille de
fenêtre TCP, et retransmissions des segments TCP.
Dans le cas des canaux dédies [ 3.4.15-25 ], il est
intéressant d'évaluer le débit binaire final de TCP
puisque le nombre d'utilisateurs est limite . Cependant, quand plusieurs
utilisateurs partagent en même temps, le même canal , la
performance du TCP est définie par le débit binaire utilisateur
et la sortie de système .
Nous allons présente un modèle simple
pour évaluer la performance du TCP au-dessus de HSDPA. Le débit
binaire au niveau TCP est calculé en divisant la taille de
données par la valeur moyenne des temps de latence E (t) ; un processus
de Markov est assumé. Le temps moyen de latence E (t) se compose de
Tss : la période de latence de la phase de démarrage lent
(slow start ) ; Tloss : correspondant au temps de rétablissement et
de RTO ; et Tca , représentant le temp de latence de la phase
steady-state , Par conséquent, le débit est donné par
, 4.1
En conséquence, modéliser l'effet du
TCP nécessite l` évaluation de la période de latence de
la phase de : démarrage lent (slow start) ,
perte de rétablissement ( loss recovery ) , phase d`équilibre (
steady state phase ) . L`analyse du time out TCP nécessaire pour le
calcule des temps de retard est présente ci-dessous
4.4.1 Timeout
Le TCP détecte les pertes de deux manières :
RTOs et triple-duplicate ACKs. Le RTO du TCP peut être
provoqué par une congestion dans le réseau Internet ou par un
retard dû à la limitation du débit binaire ou à
des multiples retransmissions sur l'interface radio produite par la technique
d'ARQ, qui augmente le RTT et le RTO du TCP. Dans cette section, la
probabilité de RTOs due à l'effet de l'interface par radio est
détermine
4.4.1.1 Proposition
La probabilité de
RTO dû à l'interface radio est donnée par le
suivant : [11]:
4.2
ou
- To est la durée moyenne du premier time out
dans une section d'un ou plusieurs successifs time out ,
- RTT wired est le RTT moyen de la partie
câble du réseau ,
-Pe est la probabilité des
erreurs après le décodage du bloc d'information par
l'intermédiaire de FEC,
- Ps est la probabilité des
erreurs après le soft combining de deux transmissions successives du
même bloc d'information.
- km est la probabilité de sélection
d'un MCS m . Un MCS est la combinaison de la modulation ordre m , un taux
de codage de canal , et un nombre N de HSDSCH Channel codes .
- TTI = 2ms , SF =13, et W est le débit WCDMA (3.84
Mchips/sec).
- Le paramètre Tj est le temps de transmission d'un
segment sur l'interface par radio. Ce temps de transmission dépend de
l'algorithme d'ordonnancement employé dans l'entité MAC-hs pour
partager le canal de HS-DSCH entre divers utilisateurs.
L'étude conduite dans cette section suppose que
l'algorithme fair throughput est mis en application dans le système.
L'introduction des meilleurs algorithmes d'ordonnancement peut seulement
augmenter la performance.
4.4.1.2 Preuve
Dans HSDPA, chaque segment TCP est transmis en utilisant
plusieurs TTIs prédéfini, de durée 2 ms . La taille d'un
segment TCP est 1500 octets. La transmission d'un segment de TCP exige entre
12 et 30 TTIs, selon le schéma de modulation et de codage
utilisés sur l'interface radio. Soit Si la taille de données
à transmettre au-dessus de chaque TTI. Le nombre de retransmission
exigé pour fournir les données de taille Si est une variable
aléatoire due à la variation conditionnel du canal Radio. Le
temps nécessaire pour transmettre un segment TCP sans d'erreur
est :
4.3
La variable ns est le nombre de
TTIs requis pour transmettre un segment de TCP sans aucune erreur sur
l'interface radio, et NT T I (i) est le nombre de
transmissions de TTI i dû à HARQ. L'utilisation de l'algorithme
d'ordonnancement sur le canal partagé rend les erreurs
indépendant sur chaque TTI ; les TTIs successif sont assignés
à de divers utilisateurs. Le nombre de retransmission de chaque TTI de
donne est indépendant de l'autre TTIs , le nombre de transmissions de
segment TCP est peut être modelé par une variable Gaussienne. En
conséquence, le temps RTT nécessaire pour transmettre un segment
TCP est une variable gaussienne. La probabilité d`avoir un time out
RTO exprimé comme :
Prob(RTT = > To) =
En évaluant et en remplaçant E (Ni) et par leurs valeurs, E(RTT) et sont obtenus, et la probabilité de RTO a la forme fournie
précédemment dedans (4.2). Une dérivation
détaillée de cette preuve est fournie dans [11,12].
4.4.2 Démarrage lent ( Slow
Start )
La connexion TCP commence par la phase dite
démarrage lent (slow start ) , sa fenêtre de congestion
augmente rapidement pour réaliser le meilleur service jusqu'à
ce qu'il détecte une perte de paquet. Dans cette phase, la taille de la
fenêtre de congestion cwnd est limitée par une valeur maximum
Wmax imposé par la source ou limitation des tampons du
récepteur.
Pour déterminer E (Tss), nous avons besoin du
E(dss) nombre de paquet de donnes à émettre avant de perdre un
paquet . De ce nombre, on peut déduire E (Wss) taille de la
première fenêtre pour que le TCP atteint la fin du
démarrage lent (slow start ) . Si E (Wss) < Wmax, alors la
limitation de fenêtre n'a aucun effet, et E(Tss) est simplement le
temps nécessaire a l` expéditeur pour envoyer E(dss) en mode de
croissance exponentiel du démarrage lent (slow start ) , si E (Wss)
> Wmax alors E (Tss) est le temps nécessaire pour que le
démarrage lent ( slow start ) augmente jusqu'à cwnd =Wmax et
puis d'envoyer les segments de données restants à un taux Wmax
segments par cycle .
Soit e être la probabilité de la
retransmission (congestion + RTO). La probabilité e peut être
évaluée en utilisant l'équation suivante :
4.4
E (dss) peut être calculé en utilisant
l'expression suivante :
4.5
où d est le nombre de segments dans le fichier le
dossier. En utilisant la même démonstration que dedans [ 10 ], la
valeur moyenne du temps de latence peut être évaluée comme
suit :
4.6
le taux de croissance exponentiel de la taille de fenêtre durant
la phase de démarrage lent ( slow start ) est donne par
4.7
4.4.3 Temps de
rétablissement du premier perte
La phase du démarrage lent ( slow start ) est
achevé avec la détection d'une perte de paquet.
L'expéditeur détecte une perte de deux manières : ACK
négatif (triple duplicate) ou RTOs. Le RTO peut être
provoqué par une congestion dans le réseau câble ou par
retransmissions sur l'interface par radio. Après un RTO, la taille de
fenêtre diminue de un ; cependant, la perte détectée par
triple duplicate ACK diminue la taille de la fenetre de ½ un demi-.
Cette section évalue le temps de rétablissement de cette
première perte. La probabilité de la perte dans un fichier de d
TCP segments est :
4.8
La perte entre segments pourrait être
considérée indépendante [ 8.9 ]. Soit
Q'(e, w) la probabilité pour que les pertes
soit de type RTO. Cette probabilité peut être
évaluée comme suit : soit cong et wirel respectivement, les
probabilités qu'il y a une perte de congestion dans la transmission du
fichier et il y a un RTO dus au condition de l'interface radio
4.9
où q est évalué dans 4.4.1 et
par (4.2). [ 8.9 ] dérive la probabilité qu'un émetteur
dans la congestion dite « avoidance » détectera
une perte de paquet avec RTO , soit p le taux de congestion et w la taille de
fenêtre . Cette probabilité est donne par F (p, W) :
4.10
La probabilité du RTO est obtenu simplement via :
4.11
La probabilité Q'_(e, w) est
dérive comme [12,13]
4.12
La probabilité de perte par triple duplicate est
loss(1-Q'(e, w)). Il a été suppose que le
rétablissement rapide du triple duplicate prend un RTT [10]. Alors
qu'il prend beaucoup de temps pour un RTO. Le calcul du RTO dans [8,9] ne
tient pas compte des effets des interférences de la radio, utilisant la
valeur du temps moyenne que prend RTO
4.13
Par combinaison de ces résultats nous
obtenons :
4.14
4.4.4 Etat de stabilité
Le temps nécessaire
pour transférer le reste de donnes peut être dérivé
comme dans [ 10 ]. En effet, la quantité de données transmises
restant après la phase de démarrage lent ( slow start ) sans
être suivie par aucune perte de rétablissement est
approximativement :
4.15
Cette quantité de données est
transférée avec debit R(e, RTT, à, Wmax). Le temps de
latence est alors indiqué ci_apres
4.16
Le taux R(p, RTT, To, Wmax) est évaluée sans
tenir compte de l`effet de l'interface radio dans [ 8.9 ] . En employant la
même démonstration que [ 8.9 ] et par l'introduction de e, RTT et
Q'(e, W) fourni dans cette section, la dérivation de l'expression de
sortie mène à l'équation suivante :
4.17
là où b est le nombre de segments de TCP
acquitte par un ACK et W(e) est donné près
4.18
En conclusion, une fois que tout les temps sont
calculés , le débit binaire au niveau de la couche de TCP peut
être évalué en utilisant l'équation (4.1). Les
schémas 4.3, 4.4, et 4.5 présentent les variations de sortie de
TCP selon le taux de congestion dans le réseau câble,
respectivement, pour 32, 64, et 128 Kbp
Figure 4 3 Effet
du TCP sur la performance d'une application de 32 kbps
Figure 4 4 Effet du TCP
sur la performance d'une application de 64 kbps
Figure 4 5 Effet
du TCP sur la performance d'une application de 128 kbps
4.5 Effet du TCP sur les
réseaux sans fils a canal partage
La Di munition du débit binaire TCP au dessus de
l`interface radio est du a deux principales raisons : la dimunition de
taille de la fenêtre TCP et les retransmissions des segments TCP . Dans
le cas des canaux dedies , il est important de calculer le debit binaire TCP ,
vue que le nombre d`utilisateur est limite .Pourtant quand plusieurs
utlisateurs partage le meme canal en meme temps la performance du tcp depends
du debit binaire utilisateur et capacite du système Lors du calcul des
débits de sorties pour les différentes algorithmes nous n`avons
pas introduit l`effet du protocole TCP . Par conséquent l'évaluation du
nombre moyen de segment TCP Ntcp devient importante. Quand Ntcp a une faible
valeur , compare a la diminution de La taille de la fenetre TCP , la
dimunition du debit binaire tcp est du essentiellement au chute de la fenetre
TCP . Dans ce cas le nombre de paquets TCP arrivant au noeud B diminue, et
plus de TTIs sont disponible sur le canal partagé. En affectant ces
derniers TTIs aux autres utilisateurs, le débit binaire de l'interface
radio peut être augmenté et par conséquent réduit la
dégradation du débit binaire de TCP.
Ntcp peut être évalué en utilisant la
probabilité de transmission des segments n fois avant la
réception correcte. La probabilité qu'un segment soit transmis
seulement est une fois (1 - e). Le segment TCP est transmis deux fois avec une
probabilité e(1-e). La retransmission d'un segment a pu être
provoquée par un RTO ou par triple duplicate .
Dans le cas d'un RTO, la période du time out est
To . Si un autre time out se produit, To double à 2 To . Cette
doublement est répété pour chaque retransmission non
réussie jusqu'à ce qu'à ce que 64 To soit atteint,
après To est maintenu constant à 64To . Cependant, dans le cas
du triple duplicate, le time out reste toujours égales à To.
Quand la fenêtre est petite, la retransmission est
due à RTO. Dans un réseau sans fil, après la
troisième retransmission la perte est seulement due time out To . La
probabilité de RTO dû à l'interface radio est q comme
donnée dans (4.2). Si la période de time out est 2 To, nous
définissons de la même manière la probabilité d'un
RTO comme q2 (par le remplacement To par 2 To). Si la période time
out est k*To , la probabilité du RTO ( due a HARQ )est alors qk , avec
k peut prendre les valeurs 1, 2, 4, 8, 16, 32 et 64. Les probabilités
qk sont définis pareillement selon le nombre de retransmissions.
Prenons xk = (1 - p)(1 - qk) la probabilité de
réception avec succès des segments TCP quand la période de
time out est k*T0 . Alors x2 = (1 - p)(1 - q2) et définissant x4, x8. .
. x64 sur la même base.
La probabilité pour avoir trois transmissions est
égale à :
La probabilité pour avoir 4 transmissions est .Le segment de TCP est transmis 5 fois avec une probabilité e2
(1-x2)(1- x4)x8 .
Basé sur les expressions de ces probabilités le
nombre moyen de retransmission est donne par 4.19
4.19
NTCP peut être introduit alors dans le
modèle analytique de sortie de cellules pour déterminer
l'interaction entre le TCP et le HS-DSCH . Dans le cas l'algorithme fair
throughput nous obtenons l`équation suivante
4.20
Une fois calcule le nombre
d`utilisateur Nu a partir de 4.20 nous déterminons la sortie de la
cellule in ( Mbps )
4.21
Dans cette section, la variation de sortie de cellules selon
le taux de congestion est décris sur le schéma 4.6 où
l'algorithme fair throughput est assumé sur le HS-DSCH.
Figure 4 6 Effet du TCP sur
la capacite d'une cellule HSDPA avec l'utilisation de l'algorithme proportional
fair
CONCLUSION
Nous avons étudié les améliorations
apportées par la technologie HSDPA sur le lien descendant du
réseau UMTS. Ces améliorations sont possibles grâce aux
différentes techniques d'AMC, de HARQ et canal partage et des
algorithmes d'ordonnancement rapide. Ainsi le HSDPA offre beaucoup d'avantages
par rapport à l'UMTS tels que l'utilisation d'une bande passante
importante combinée avec un délai court de la transmission des
données et l'augmentation de la capacité de transmission sans
avoir besoin de fréquences supplémentaires.
L`effet du protocole TCP sur les applications est plus fort
que sur la capacité du système HSDPA due a l`utilisation des
canaux partages haut débit . Ainsi rend faible l`impact du protocole TCP
sur les performances et capacité du système HSDPA
References
UMTS
[1]. Bormann, C., C. Burmeister, H. Fukushima, H. Hannu, L-E.
Jonsson, R. Hakenberg, T. Koren, K. Le, Z. Liu, A. Martensson, A. Miyazaki, K.
Svanbro, T. Wiebke, T. Yoshimura, and H. Zheng. 2001. RObust Header
ompression
(ROHC): Framework and Four Profiles: RTP, UDP, ESP, and
Uncompressed RFC 3095. (July).
[2]. Tanner, R., and J. Woodard. 2004. WWCDMA Requirements
and Practical Design, Chichester, West Sussex, England: The Atrium.
[3]. Holma, H., and A. Toskala. 2004. WWCDMA for UMTS. Radio
Access for Third Generation Mobile Communications, 3rd ed. Chichester,
West Sussex,England.
[4]. 3GPP TS 23.107 V3.2.0. 2004. Quality of Service (QoS)
Concept and Architecture. Release 3, December.
[5]. Laiho, J., A. Wacker, 2002. Radio Network Planning and
Optimisation for UMTS. London: John Wiley & Sons.
[3]. ITU-T, Recommendation G114. One-Way Transmission Time.
1993.
[7]. 3GPP TS 22.105 V3.4.0. 2005. Services and service
capabilities. Release 3, September.
[9]. 3GPP TS 23.101 V3.0.0. 2004. Universal Mobile
Telecommunications System Architecture. Release 3,
[10]. 3GPP TS 23.002 V3.7.0. 2005. Network Architecture. Release
3, March.
[11]. 3GPP TS 23.121 V3.3.0. 2002. Architectural Requirements for
Release 1999. Release 1999, June .
[13]. 3GPP TS 25.410 V3.2.0. 2004. UTRAN Iu Interface: General
Aspects and Principles. Release 3, December.
[14]. 3GPP TS 25.420 V3.3.0. 2005. UTRAN Iur Interface General
Aspects and Principles. Release 3, March.
[15]. 3GPP TS 25.430 V3.5.0. 2005. UTRAN Iub Interface: General
Aspects and Principles. Release 3, June.
[31]. Gilhousen, S. Klein, I. M. Jacobs, R. Padovani, A. J.
Viterbi, L. A.Weaver, and C. E. Wheatley. 1991. On the Capacity of WCDMA
System. IEEE Transactions on Vehicular Technology 40, no. 2: 303-12
(May).
[34]. Lee, C., and R. Steele. 1998. Effect of Soft and Softer
Handoffs on WCDMA System Capacity. IEEE Transactions on Vehicular
Technology 47, no. 3: 830-41 (August).
HSDPA
[1] 3GPP Technical Specification 22.004, Technical
Specification Group Services and System Aspects : General on supplementary
services, Release 1999, 2000.
[2] 3GPP Technical Specification 25.107, Technical
Specification Group Services and System Aspects : Quality of Service (QoS)
concept and architecture, Release 1999, 2002.
[3] 3GPP Technical Specification 25.211, Physical Channels
and Mapping of Transport Channels onto Physical Channels (FDD), Release 5,
2004.
[4] 3GPP Technical Specification 25.212, Multiplexing and
Channel Coding (FDD), Release 99, 2002.
[5] 3GPP Technical Specification 25.308, HSDPA Overall
Description, Release 5, 2003.
[3] 3GPP Technical Specification 25.303, Technical
Specification Group Radio Access Network : UE Radio Access capabilities,
Release 5, 2005.
[7] 3GPP Technical Specification 25.213, Technical
Specification Group Radio Access Network : Spreading and modulation (FDD),
Release 5, 2005.
[8] Adachi F., Sawahashi M., Okawa K., Tree-structured
generation of orthogonal spreading codes with different lengths for forward
link of DS-WCDMA mobile, Electronic letters, Volume 33, Issue 1, 1997,
pp. 27
[9] Ameigeiras P., Wigard J., Mogensen P., Performance of
packet scheduling methods with different degree of fairness in HSDPA,
Vehicular Technology Conference, 2004. VT004-Fall. 2004 IEEE 30th Volume 2,
2004, pp. 830 - 834.
[10] Anderson J. B., Svensson A., Coded Modulation
Systems, Springer, 2002.
[11] Buddendick H., Wolfle G., Burger S., Wertz P., Simulator
for performance analysis in UMTS FDD networks with HSDPA, Personal, Indoor
and Mobile Radio Communications, 2004. PIMRC 2004. 15th IEEE International
Symposium on Volume 3, 2004, pp. 2251 - 2255.
[12] Das A., Khan F., Sampath A., Hsuan-Jung Su, Adaptive,
asynchronous incremental redundancy (A/sup /IR) with fixed transmission time
intervals (TTI) for HSDPA, Personal, Indoor and Mobile Radio
Chapitre 3
[1]. Postel, J. 1980. User Datagram Protocol. RFC 738, August.
[2]. Comer, D. E. 2000. Internetworking with TCP/IP:
Principles, Protocols, and Architecture, vol. 1, 4th ed., Upper Saddle
River, NJ: Prentice Hall.
[3]. Stevens, R. W. 1994. TCP/IP Illustrated, vol. 1.
Reading, MA: Addison- Wesley.
[4]. Hassan, M., and R. Jain. 2004. High Performance TCP/IP
Networking. Upper Saddle River, NJ: Prentice Hall.
[5]. Case, J., M. Fedor, M. Schoffstall, and J. Davin. 1990. A
Simple Network Management Protocol (SNMP). RFC 1157, May.
[6]. Hedrick, C. 1988. Routing Information Protocol. RFC
1058, June. 7. Malkin, G. 1994. RIP Version 2: Carrying Additional
Information. RFC 1723, November.
[8]. Sportack, M. A. 1999. IP Routing Fundamentals.
Indianapolis: Cisco Press.
[9]. Schulzrinne, H., S. Casner, R. Frederick, and V. Jacobson.
1993. RTP: A Transport Protocol for Real-Time Applications. RFC 1889,
January.
[10]. Postel, J. 1981. Transmission Control Protocol. RFC 793,
September.
[11]. Berners-Lee, T., R. Fielding, and H. Frystyk. 1993.
Hypertext Transfer Protocol-HTTP/1.0. RFC 1945, May.
[12]. Fielding, R., J. Gettys, J. Mogul, H. Frystyk, L. Masinter,
P. Leach, and T. Berners-Lee. 1999. Hypertext Transfer Protocol-HTTP/1.1. RFC
2313, June.
[13]. Ameigeiras Gutierrez, P. J. 2003. Packet Scheduling And QoS
in HSDPA. PhD diss., Aalborg University, October.
[14]. TSG RAN Working Group 1, no. 21, HSDPA Number of Users.
Qualcomm R1-01-0912, August 2001.
[15]. Cohen, E., H. Kaplan, and J. Oldham. 1999. Managing TCP
Connections Under Persistent HTTP. Computer Networks 31:1709-23
(March).
[16]. Molina, M., P. Castelli, and G. Foddis. 2001. Web Traffic
Modeling Exploiting TCP Connections Temporal Clustering through HTML-REDUCE.
IEEE Network 14, no. 3:43-55 (May).
[17]. Postel, J. 1980. DOD Standard: Transmission Control
Protocol. RFC 731, 13, January.
[18]. Mogul, J., and S. Deering. 1990. Path MTU Discovery. RFC
1191, November.
[19]. Stevens, W. 1997. TCP Slow Start, Congestion Avoidance,
Fast Retransmit, and Fast Recovery Algorithms. RFC 2001, January.
[20]. Paxson, V., and M. Allman. 2000. Computing TCP's
Retransmission Timer. RFC 2988, November.
[21]. Stevens, W., M. Allman, and V. Paxson. 1999. TCP Congestion
Control. RFC 2581, April.
[22]. Casetti, C., and M. Meo. 2000. A New Approach to Model the
Stationary Behavior of TCP Connections. In Proc. of the IEEE Conference on
Computer Communications (INFOCOM) 2000, 1:337-75 (March 23-30).
[23]. Kumar, A. 1998. Comparative Performance Analysis of
Versions of TCP in a Local Network with a Lossy Link. IEEE/ACM Transactions
on Networking, 3, no. 4:485-98 (August).
[24]. Casetti, C., and M. Meo. 2001. An Analytical Framework for
the Performance Evaluation of TCP Reno Connections. Computer
Networks, 37:339-82.
[25]. Padhye, J., V. Frnoiu, and D. Towsley. 1999. A Stochastic
Model of TCP Reno Congestion Avoidance and Control. Tech. Rep. 99-02,
Department of Computer Science, University of Masschusetts at Amherst.
[23]. Padhye, J., V. Frnoiu, D. Towsley, and J. Kurose. 1998.
Modeling TCP Throughput: A Simple Model and Its Empirical Validation. Paper
presented at the annual conference of the Special Interest Group on Data
Communication
(SIGCOMM), Vancover, August-September.
[27]. Padhye, J., V. Frnoiu, D. Towsley, and J. Kurose. 2000.
Modeling TCP Throughput: A Simple Model and Its Empirical Validation.
IEEE/ACM Transactions on Networking 8, no. 2:133-45 (April).
[28]. Wierman, A., T. Osogami, and J. Olsen. 2003. A Unified
Framework for Modeling TCP-Vegas, TCP-SACK, and TCP-Reno. Technical Report
CMUCS-03-133, Carnegie Mellon University.
[29]. Jitendra Padhye Web page. «TCP modeling»
http://www.icir.org/padhye/
tcp-model.html.
[30]. Brakmo, L., S. O'Malley, and L. Peterson. 1994. TCP Vegas:
New Techniques for Congestion Detection and Avoidance. Paper presented at the
annual conference of the Special Interest Group on Data Communication
(SIGCOMM), August, 24-35.
[31]. Brakmo, L., and L. Peterson. 1995. TCP Vegas: End to End
Congestion Avoidance on a Global Internet. IEEE Journal on Selected Areas
in Communication, 13, no. 8:1435-80 (October).
[32]. Mo, J., R. La, V. Anantharam, and J. Walrand. 1999.
Analysis and Comparison of TCP Reno and Vegas. Paper presented at the IEEE
Conference on Computer Communications (INFOCOM), New York, March, 1553-33.
[33]. Floyd, S., M. Handley, J. Padhye, and J. Widmer. 2000.
Equation-Based Congestion Control for Unicast Applications.
Chapitre 4
[1]. Hassan, Mahbub, and Raj Jain 2004. High Performance
TCP/IP Networking.Upper Saddle River, NJ: Prentice .
[2]. 3GPP TS 23.030 V3.10.0. 2005. Service Description. Stage 2,
Release 3,September.
[3]. Ameigeiras Gutierrez, P. J. 2003. Packet Scheduling and QoS
in HSDPAPhD diss. Aalborg University, October.
[4]. Bestak, R. 2003. Reliability Mechanisms (Protocols ARQ) and
Their Adaptationin 3G Mobile Networks. PhD diss. ENST Paris, December
18,http://pastel.paristech.org/archive/00000514/01/RBestakThese.pdf.
[5]. Mathis, M., J. Mahdavi, S. Floyd, and A. Romanow. 1993.
Selective AcknowledgmentOption, RFC-2018, October.
[6]. Floyd, S., J. Mahdavi, M. Mathis, and M. Podolsky. 2000. An
Extension to the Selective Acknowledgement (SACK) Option for TCP. RFC 2883,
July.193 _ TCP Performance over UMTS-HSDPA Systems
[7]. Mathis, M., and J. Mahdavi. 1993. Forward Acknowledgment:
RefiningTCP Congestion Control. In Proc. of the ACM Annual Conference of the
Special Interest Group on Data Communication (SIGCOMM 93), (August).
[8]. Padhye, J., V. Frnoiu, D. Towsley, and J. Kurose. 1998.
Modeling TCP Throughput: A Simple Model and Its Empirical Validation. Proc. of
ACM Annual Conference of the Special Interest Group on Data Communication
(SIGCOMM).
[9]. Padhye, J., V. Frnoiu, D. Towsley, and J. Kurose. 2000.
Modeling TCP Throughput: A Simple Model and Its Empirical Validation.
IEEE/ACM Transactions on Networking 8, no. 2:133-45 (April).
[10]. Cardwell, N., S. Savage, and T. Anderson. 2000. Modeling
TCP Latency. Paper presented at the IEEE Conference on Computer
Communication (INFOCOM) 3:1742-51 (March 23-30).
[11]. Assaad, Mohamad, and Djamal Zeghlac he. 2003. Cross Layer
Design in HSDPA System, IEEE Journal on Selected Areas in
Communications, forthcoming.
[12]. Assaad, Mohamad, and Djamal Zeghlache. 2005. How to
Minimize the TCP Effect in a UMTS-HSDPA System. Wiley Wireless
Communications and Mobile Computing Journal 5, no. 4:473-485 (June).
[13]. Assaad, Mohamad, Badii Jouaber, and Djamal Zeghlache. 2004.
TCP Performance over UMTS-HSDPA System. Kluwer on Telecommunication Systems
Journal 27:2-4, 371-391.
[14]. Assaad, M., B. Jouaber, and D. Zeghlache. 2004. Effect of
TCP on UMTS/HSDPA System Performance and Capacity. IEEE Global
Telecommunications Conference, GLOBECOM04, Dallas. 3:4104-4108.
[15]. Ludwig, R., B. Rathonyi, A. Konrad and A. Joseph. 1999.
Multilayer Tracing of TCP over a Reliable Wireless Link. ACM SIGMETRICS
International Conference on Measurement and Modeling of Computer systems,
May.
[16]. Yavuz, M., and F. Khafizov. 2002. TCP over Wireless Links
with Variable Bandwith. Proc. of IEEE VTC (September).
[17]. Xylomenos, G., G. C. Polyzos, P. Mahonen, and M. Saaranen.
2001. TCP Performance Issues over Wireless Links. IEEE Communication
Magazine 39, no. 5:52-8 (April).
[18]. Balakrishnan, H., V. Padmanabhan, S. Seshan, M. Stemm, and
R. H. Katz. 1997. A Comparison of Mechanisms for Improving TCP Performance.
IEEE/ACM Transactions on Networking 5:753-39 (December).
[19]. Chaskar, N. M., T. V. Lakshman, and U. Madhow. 1999. TCP
over Wireless with Link Level Error Control: Analysis and Design Methodology.
IEEE/ACM Trans. Networking 7:305-15 (October).
[20]. Wong, J. W. K., and V. C. M. Leung. 1999. Improving End to
End Performance of TCP Using Link Layer Retransmissions over Mobile
Internetworks. In Proc. of the IEEE International Conference on Communication
(ICC),
324-8.
[21]. Bai, Y., A. T. Ogielski, and G. Wu. 1999. Interaction of
TCP and Radio Link ARQ Protocol. In proc. of the IEEE VTC, 1710-14.
|