Par Jean-Marie Raymond Noel [1]
Soumis à AlterPresse le 30 octobre 2007
Comme si le black-out ne suffisait pas, le pays expérimente depuis ce dimanche 28 octobre 2007 (aux environs de 10h PM) le web-out. A la base de ce phénomène, on ne peut plus pénalisant, la tempête tropicale Noël qui a durement frappé la république voisine et provoqué la déconnexion des liaisons micro-ondes au câble optique sous-marin de Santo-Domingo. Des fournisseurs d’accès Internet (FAI) locaux avaient dû recourir à cette solution pour assurer l’accès international au pays à un coût de bande passante inférieur à celui des solutions satellitaires et pour un délai de transmission de 5 à 6 fois moindre par rapport au délai du satellite. Cette solution présente néanmoins des limitations importantes (Chilosi, P. in Accès universel et compétition, "Forum haïtien de discussion TIC et Développement", Samedi 13 octobre 2007) : i) les risques de coupure sont toujours présents par le fait qu’il y a plusieurs relais, ii) la capacité est limitée, iii) et on est tributaire d’un seul point d’accès international. La preuve vient d’être donnée.
Pourquoi faut-il qu’on soit arrivé là ? Qu’attend la Téléco pour mettre en exploitation commerciale le réseau de câbles optiques sous-marins de 10 Gigabits établi entre Téléco et Batelco après accord entre le gouvernement haïtien et celui de Bahamas ? La réponse aux deux questions renvoie au déficit de vision qui caractérise la gestion du secteur. Jusqu’à présent les acteurs publics chargés d’en définir l’orientation et la régulation ne comprennent pas l’urgence d’avoir une approche réfléchie et globale de la problématique du développement de ces technologies dans le pays. On persiste à privilégier le coup par coup et à jouer au pompier à chaque fois qu’un problème survient. La désarticulation entre les structures de gestion et le processus d’accélération technologique est telle que les crises sont appelées à s’intensifier, et nous rapproche de plus en plus du point de saturation qui consacre l’impuissance du pompier.
Pourquoi l’interconnexion des FAI n’est-elle pas encore une réalité ? La responsabilité première revient aux FAI eux-mêmes. Il est en effet aberrant d’engager des investissements sans se battre pour un minimum de garanties. Au-delà des préoccupations techniques liées à l’asymétrie des réseaux, somme toute surmontables, le renforcement de la fiabilité et la continuité du service pour les clients devraient suffire à convaincre les FAI à rechercher l’ interconnexion et mieux à l’exiger. Hélas, chacun gère son petit ensemble de réseaux et en assure la connectivité sans s’occuper de ses interactions avec les autres fournisseurs locaux. A ce point vue, ils échappent au principe fondamental de redondance de l’Internet puisqu’ils ne sont raccordés au réseau mondial que par un seul point et qu’une coupure sur ce lien entraîne automatiquement un isolement même par rapport à ses homologues locaux, comme on le disait déjà en 2001 (Guerrier, R. in Interconnexion des ISP, Sommet HT2001, Port-au-Prince).
Souhaitons que ce web-out fera prendre conscience :
1) aux responsables qu’il faut s’engager à mettre en œuvre un Plan d’action TIC concerté. Il en existe déjà un qui n’attend que reconnaissance des hautes autorités ;
2) aux exploitants (fournisseurs d’accès et de service Internet) que l’interconnexion est un des fondements pour une concurrence viable et une nécessite pour l’avènement de la convergence (Voir section 4 du chapitre V du projet de loi en souffrance depuis septembre 2000 : http://www.conatel.gouv.ht/images/photos/AvantProjetloi.pdf )
[1] Ing.,MSc
Professeur, Faculté des Sciences, UEH