Together, your Internet even better

Articles in Category: Archives LyonIX

IXPloration #23 : save the date !

Le jeudi, 08 août 2019. Posté dans Archives Rezopole Archives LyonIX

IXPloration #23 : save the date !

Cet événement entièrement gratuit vous permet de découvrir les nombreux avantages, pour votre structure,

d’être connectée sur l'IXP/NAP de Lyon.

 

Rendez-vous le 26 septembre au siège de Rezopole (16, rue de la Thibaudière – 69007 Lyon).

 

Plus de détails sur cette matinée ici.

 

 Les inscriptions ouvrent très prochainement !

 

 

 

 

 

Une page se tourne pour le Cloud souverain français

Le mercredi, 07 août 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Une page se tourne pour le Cloud souverain français

Le Cloudwatt, service d’hébergement de données en ligne d’Orange, sera débranché le 1er février prochain. Lancée en 2012, il s’agissait de l’une des deux têtes du Cloud souverain à la française cofinancée à perte par l’argent public. Bercy appelant de nouveau à la création de centres de données sécurisés pour héberger les données sensibles de l’administration et des entreprises, cet échec pourrait servir de leçon

 

À l’origine de ce projet, baptisé Andromède, la France souhaitait investir 150 millions d’euros dans un service de serveurs mutualisés pouvant réduire les coûts des ministères et des entreprises. Mais voilà, les groupes de technologie français appelés à l’aide n’ont pas réussi à s’entendre et ont donc partagé l’enveloppe.

D’un côté, Cloudwatt a été créé par Orange et Thales en ajoutant 150 millions d’euros à la somme prévue par l’État. De l’autre côté, Numergy a été lancé par SFR et Bull avec le même investissement. Cependant aucun d’entre eux n’a su trouver de clients. Et deux ans après leur démarrage, Cloudwatt revendiquait seulement 2 millions de recettes. Même si Numergy s’en sortait mieux avec 6 millions facturés, il s’agit de miettes face à Amazon, Microsoft et IBM.

Bercy arrête les frais, quelques mois plus tard, en assurant n’avoir dépensé que la moitié des sommes promis. Orange et SFR rachètent alors les parts de l’État, de Thales pour l’un, de Bull pour l’autre. Numergy et Cloudwatt, devenues alors de simples marques, vivotaient depuis au sein des offres conçues pour les grandes entreprises par les deux opérateurs Télécoms.

 

Aujourd’hui, la domination sur le marché de l’informatique en ligne des acteurs américains nourrit toujours des craintes sur l’intégrité des données stratégiques. Un récent rapport du député Raphaël Gauvain critique le Cloud Act, une loi extraterritoriale américaine rappelant le Patriot Act et des programmes d’espionnage.

Le Gouvernement devrait donc signer un contrat stratégique de filière visant à faire émerger un écosystème du « Cloud de confiance » à l’automne. Être Français ne suffira pas pour en être et certaines technologies américaines ou chinoises utilisées dans des centres de données français seront difficilement compatibles.

« Cette fois, on ne présumera pas de la nationalité des acteurs mais de leurs capacités à garantir l’intégrité des données au regard de nos lois et de l’autonomie stratégique sur nos infrastructures essentielles et nos données », note Jean-Noël de Galzain, le président d'Hexatrust siégeant au comité stratégique de filière. De plus, l'Etat devrait s’engager à jouer son rôle d’acheteur.

 

 

 

 

 

 Lire l'article

 

Source : Les Echos

 

 

 

 

4G : l'Arcep tape du poing sur la table

Le mercredi, 07 août 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

4G : l'Arcep tape du poing sur la table

Le gendarme des Télécoms vient d’adresser une mise en demeure anticipée à Orange, SFR, Bouygues Telecom et Iliad-Free à propos du « New Deal mobile ». En effet, l’Arcep estime que les engagements pris par les opérateurs dans le cadre de cet accord, datant de janvier 2018, n’avancent pas assez vite.

 

À l’époque, l’État avait accepté de renouveler une partie des fréquences accordées aux opérateurs pour dix ans et gracieusement. Un « cadeau » avec toutefois une contrepartie : les opérateurs s’étaient engagés à couvrir davantage le territoire, notamment dans les fameuses « zones blanches ».

D’ici la fin 2020, ils doivent avoir convertir tous leurs sites 2G et 3G existants en 4G ainsi qu’améliorer la couverture mobile des axes de transports (dès 2018) et à l’intérieur des bâtiments (dès 2019).

 

Mais voilà, un an et demi après la signature, le régulateur trouverait que les avancées soient insuffisantes. « Le régulateur n’a pas confiance dans les opérateurs, il estime que ce dossier traîne », explique une source au fait du dossier.

Si les objectifs n’étaient pas tenus à l’échéance de 2020, la mise en demeure anticipée permettrait d’enclencher plus vite les sanctions sans perdre de temps.

 

Conscient que les opérateurs ont toujours eu du mal à respecter leurs engagements, le gouvernement a organisé des points d’étape sur l’avancement des travaux. Cela n’a visiblement pas été suffisant.

Pourtant en juin 2018, le gouvernement avait publié les 485 premiers sites sur lesquels les opérateurs devaient installer leurs antennes 4G. De son côté, l'Arcep avait lancé son tableau de bord trimestriel. Mais plusieurs observateurs avaient déjà alerté sur l’ampleur de la tâche. « Les délais étaient super-short. On pouvait légitimement être inquiet », se rappelle aujourd’hui un participant.

 

Les opérateurs, quant à eux, nient tout retard. « Les opérateurs déploient dans le calendrier prévu. […] Nous sommes sur le terrain quotidiennement pour résoudre les défis administratifs et techniques avec l’appui des collectivités et des services de l’État. L'Arcep est la bienvenue dans les territoires et se rendra ainsi encore mieux compte de la réussite collective en cours pour régler enfin le problème des zones blanches » estime Arthur Dreyfuss, président de la Fédération française des Télécoms. L’été risque donc d’être agité.

 

 

 

 

 Lire l'article

 

Source : Les Echos

 

 

 

 

Suivi de l’épuisement des adresses IPv4

Le jeudi, 01 août 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Suivi de l’épuisement des adresses IPv4

Utilisé depuis 1983, l’Internet Protocol version 4 (IPv4) permet à Internet de fonctionner : chaque terminal sur le réseau (ordinateur, téléphone, serveur, etc.) est adressable par une adresse IPv4. Ce protocole offre un espace d’adressage de près de 4,3 milliards d’adresses IPv4. Mais le succès d’Internet, la diversité des usages et la multiplication des objets connectés ont comme conséquence directe l’épuisement progressif de ces adresses. À fin juin 2018, les quatre opérateurs français majeurs (Bouygues Telecom, Free, Orange, SFR) avaient déjà affecté entre 88 % et 99 % des adresses IPv4 qu’ils possèdent.

 

Il reste seulement 2,856 millions d’IPv4 publiques disponibles au RIPE NCC au 23 juillet 2019.

Deux scénarios sont dorénavant envisageables :

  • 1 : attribution de 1024 adresses IPv4 par LIR jusqu’à épuisement.
  • 2 : attribution de 1024 adresses IPv4 par LIR jusqu’au dernier million d’adresses IPv4 disponible, puis 256 IPv4 par LIR jusqu’à épuisement.

La date la plus probable pour l’épuisement des IPv4 est le 6 mai 2020 (scénario 2).

Si la proposition 2019-02 du RIPE, permettant de limiter à 256 IPv4 par LIR (scénario 1), est rejetée ce sera le 25 décembre 2019.

 

Le jour de l’épuisement des IPv4 du RIPE-NCC, le prix des IPv4 sur le marché secondaire de l’achat des adresses déjà allouées devrait s’envoler en fonction de l’offre et de la demande. En effet, les acteurs qui ont trop d’adresses IPv4 peuvent les vendre à ceux qui n’en ont pas du tout ou pas assez.

Un prix élevé susceptible d’ériger une barrière à l’entrée à l’encontre des nouveaux acteurs du marché et d’augmenter le risque de voir se développer un Internet coupé en deux : IPv4 d’un côté et IPv6 de l’autre. Comme l’explique Jérémy Martin, Directeur Technique de Firstheberg.com : « avec une demande croissante pour un nombre d’IPv4 fixes, le coût de location d’une IPv4 va doubler d’ici à 2 ans ».

 

Pour répondre à la pénurie des adresses IPv4, des FAI ont mis en place certains mécanismes de substitution. Par exemple, les équipements Carrier-grade NAT (CGN) permettent de partager une adresse IPv4 entre plusieurs clients. Ils entraînent cependant plusieurs effets négatifs rendant complexe le maintien d’IPv4 et quasi impossible un certain nombre usages (peer-to-peer, accès à distance à des fichiers partagés sur un NAS ou à des systèmes de contrôle de maison connectée, certains jeux en réseau…).

Pour Grégory Mounier, d’Europol, cela peu aller plus loin et « porte ainsi atteinte à la vie privée de nombreuses personnes qui pourraient être citées en procédure alors même que les enquêteurs ne s’intéressent qu’à un seul suspect. Dans ce contexte, seule une transition quasi-totale à l’IPv6 peut constituer une réponse pérenne à ce problème ».

D’autre part, un opérateur achetant des adresses IPv4 à un acteur étranger prend le risque que ses clients soient pendant de nombreux mois localisés hors de France et bloque ainsi de nombreux services.

 

Accélérer la transition vers IPv6 est la seule solution pérenne. Seule une mutation quasi-totale peut permettre aux fournisseurs de contenus de se passer d’IPv4.

 

 

 

 

 Lire l'article

 

Source : Arcep

 

 

 

 

Canicule : pourquoi les DC français tiennent le coup

Le jeudi, 01 août 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Canicule : pourquoi les DC français tiennent le coup

Les épisodes de chaleur ne sont pas pris à la légère par les opérateurs de datacenters. En France, « nous sommes passés de 40 degrés à 46 degrés en quelques années. Nous avons rejoint les spécifications de l’Espagne » dit Marie Chabanon, directrice technique de DATA4 groupe.

 

Afin de contrer tout coup de chaud, la résistance des datacenters aux températures a augmenté « La grande crainte, c’est l’effet domino […] Si tout ou partie de l’infrastructure de froid a des problèmes, cela joue sur le reste de l’équipement. Et si le groupe froid s’arrête, c’est le pire qui puisse nous arriver avec la panne complète d’électricité » ajoute le Directeur Général d’Interxion, Fabrice Coquio. Un risque également lié à la qualité de la distribution électrique de RTE ou Enedis. « Nous devons anticiper un risque de perte électrique ou d’incident électrique » explique Marie Chabanon.

 

Mais les opérateurs de datacenters ont une botte secrète pour lutter contre cet effet domino. « Les systèmes électriques des datacenters sont construits pour être opérationnels a 100 % de la charge. Or ce n’est jamais le cas. La conséquence, c’est qu’en cas de sollicitation, comme un besoin de froid plus fort, nous avons de la puissance non allouée que nous pouvons utiliser » explique Fabien Gautier, d'Equinix. On appelle cela la redondance de capacité.

 

D’autant plus que la densification de puissance de calcul par unité d’espace ces dernières années, avec la démocratisation de la virtualisation, provoque plus de consommation et plus de chaleur. « Avec des baies de 14 ou 15 kvA on occasionne des points chauds, plus sensibles à des périodes de canicule » détaille Fabien Gautier. Le travail d’urbanisation de l’architecture IT déployée dans les salles est donc essentiel. « Notre travail c’est donc l’urbanisation des salles. Si elles ont été remplies à la volée, ça peut poser problème » ajoute-t-il.

Cela passe entre autres par de la répartition de charge. « Nos datacenters sont désignés avec des redondances et un taux de charge de 50 %. Les machines de backup seront utilisées pour assurer de la puissance complémentaire » en cas de canicule indique Marie Chabanon. Il faut néanmoins l’anticiper. « Nous devons nous assurer que les systèmes de backup sont prêts a être opérationnels, et ce par des actions de maintenance et de contrôle sur les équipements de sauvegarde ».

 

La protection des datacenters contre la chaleur passe aussi par la mise en place de systèmes curatifs. « Nous avons installé des systèmes de projection d’eau pour arroser les équipements de toit avec de l’eau pas trop froide » précise Fabrice Coquio.

Et pour parer à toute éventualité en début de soirée, le planning des techniciens présents sur le site a été modifié. Il est également nécessaire de prévenir les clients afin qu’ils fassent attention.

 

Les progrès récents en matière de résistance des matériels informatiques et de conception des datacenters permettent de revoir à la hausse les températures dans les salles de stockage des serveurs. « L’idée, c’est que plus le PUE (Power Usage Effectiveness) est bas plus il est performant. Il y a dix ans on faisait des datacenters où l’on arrivait difficilement à un PUE de 1,6. Aujourd’hui on est à 1,2 et on se rapproche de 1. Cela représente 20 % de gains en jouant sur la température et la performance énergétique des nouveaux équipements » indique Marie Chabanon. Résultat : le système de refroidissement se concentre désormais sur les machines avec de l’air pulsé. Il n’y a plus besoin de réfrigérer des salles entières.

« Nous constatons une évolution du design sur la température en salle selon les préconisations de l'Ashrae (American Society of Heating and Ventilating Engineers). L’idée est de bien fonctionner avec des plages de températures bien plus haute. Nous sommes passés de plages de 20 à 22 degrés à 18 à 27 degrés » complète-t-elle. Depuis 2011, ces normes ont été relevées : elles recommandent de souffler en face avant à 26 degrés sur les équipements en salle. « Le niveau d’hygrométrie a aussi été modifié […] En 2008, il était entre 40 et 60 %. Il est désormais à 70 % » précise Fabrice Coquio.

 

De quoi limiter les dépenses côté refroidissement sans pour autant jouer sur la résistance des installations. Un point critique en période de canicule.

 

 

 

 

 Lire l'article

 

Source : ZDNet

 

 

 

 

Historique et impact de la croissance des IXP

Le vendredi, 26 juillet 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Historique et impact de la croissance des IXP

Nous sommes en 1990 : Internet compte quelques millions d’utilisateurs et les premières entreprises commerciales ont récemment adopté cette nouvelle infrastructure distribuée.

 

L’acheminement du trafic réseau d’une région à l’autre dépend généralement des grands fournisseurs de transit (niveau 1). Ces niveaux 1 se situent au sommet de la hiérarchie, composée de quelques milliers d’AS existants, formant ce qu’on appelle le réseau des réseaux.

 

Beaucoup de choses ont changé depuis ces débuts, quand les petits AS payaient les plus gros pour de la connectivité. Cette dépendance à l’égard des intermédiaires s’est traduite par des frais de transit, des routes indirectes, des temps de trajet aller-retour importants et un manque général de contrôle sur la qualité du service. Le contournement des intermédiaires par des interconnexions directes de peering est devenu la réponse évidente, et les points d’échange Internet (IXP) sont alors apparus comme la solution par défaut pour établir ses connexions.

 

Entre 2008 et 2016, le nombre d’IXP et de membres a pratiquement triplé. Dans le même temps, l’accessibilité via ces installations a stagné autour de 80 % de l’espace d’adressage annoncé (IPv4) tandis que la résilience augmentait en raison de la redondance croissante.

 

Dans presque toutes les régions, notamment en Europe et en Amérique du Nord, les membres d’IXP se sont enrichis avec un nombre croissant d’adhérents et une accessibilité supérieure. Cependant, les écosystèmes régionaux étaient distincts. Par exemple, les IXP européens comptaient le plus grand nombre de membres mais les plus petits AS (en termes d’accessibilité), l’Asie-Pacifique se situait à l’extrême opposé.

 

Cette croissance pose la question de l’impact observable des IXP sur Internet. Pour répondre à cette question, l’Université Queen Mary de Londres, en collaboration avec des chercheurs de Roma Tre Univ, du Consortium GARR et de l’Université de Tokyo, a extrait une grande collection de traceroutes couvrant la même période et a identifié des IXP traversés.

 

Les IXP ont eu un impact évident sur la réduction de la longueur moyenne des chemins d’accès au niveau AS, en particulier pour les grands réseaux mondiaux (hypergiants). Étant donné que ces réseaux sont à forte intensité de trafic, il est probable qu’une grande partie du trafic Internet ait bénéficié d’une réduction substantielle du nombre d’AS traversés.

 

Ils ont aussi clairement aidé à contourner les fournisseurs de transit de niveau 1. Leur impact sur la réduction du nombre de liaisons de transit (pas nécessairement de niveau 1) visibles sur le traceroute est toutefois plus modérée.

 

Malgré ces changements, une hiérarchie claire demeure, avec un petit nombre de réseaux jouant un rôle central. Il est intéressant de noter qu’il existe un petit groupe de réseaux très centraux, indépendamment du fait que les chemins traversent un IXP ou non.

 

De plus, la hiérarchie d’Internet a changé : les grands réseaux centraux ont réduit leur utilisation des peerings publics alors que les IXP ont été adoptés par des AS plus petits et moins centraux. Cela s’explique probablement par la popularité croissante des interconnexions de réseaux privés (PNI), qui sont généralement favorisées par les AS lorsque de gros volumes de trafic sont échangés.

 

Dans l’ensemble, l’augmentation du nombre d’IXP depuis 2008 a eu un impact évident sur l’évolution d’Internet, raccourcissant les chemins (principalement) vers des hypergiants et réduisant la dépendance vis-à-vis des fournisseurs de transit Tier 1.

 

Les résultats doivent être interprétés à la lumière des contraintes des données existantes, et il existe un certain nombre de domaines où des travaux sont possibles. Par exemple, les données topologiques sont indépendantes des volumes de trafic et la visibilité totale sur Internet est impossible à atteindre.

 

De plus, les stratégies de redirection des réseaux de distribution de contenu (CDN) ne sont pas prises en compte dans les traceroutes ; il est supposé que la comptabilisation des volumes de trafic, de plus en plus importants, livrés par ces réseaux appuierait probablement ces conclusions.

 

 

 

 

 Lire l'article

 

Source : RIPE

 

 

 

 

Les « petits » opérateurs s’attaquent à Orange

Le vendredi, 26 juillet 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Les « petits » opérateurs s’attaquent à Orange

L'AOTA – Association des Opérateurs Télécoms Alternatifs – vient de saisir l’Arcep pour demander l’ouverture du réseau fibre d’Orange. En effet, les 47 membres de l’association se plaignent de ne pas y avoir suffisamment accès et accusent l’opérateur historique de pratiques anticoncurrentielles.

 

Faute de pouvoir construire eux-mêmes des réseaux très coûteux couvrant tout le territoire, les petits opérateurs doivent d’abord « emprunter » les réseaux d’Orange et de SFR. Ils louent donc des accès aux deux acteurs dominant du marché Télécom des entreprises et leur achètent, à prix de gros, de la voix ou de la data. Ils les vendent ensuite à leurs propres clients.

 

Mais voilà, les opérateurs alternatifs s’estiment évincés du marché des entreprises n’ayant pas pu suffisamment « se brancher » au réseau d’Orange. Avec 12,4 millions de prises, le réseau fibre de l’opérateur historique est à la fois très vaste et très capillaire. S’y raccrocher permet donc de cibler les PME avec des besoins de connectivité sur plusieurs sites ou usines disséminées sur le territoire. Ce sont précisément ces clients qui échappent aux membres de l'AOTA, plus limités géographiquement.

 

Un problème ancien et lié au manque de régulation sur la fibre pour les professionnels. En effet, Orange est obligé de proposer des offres de gros aux petits opérateurs voulant accéder au réseau cuivre (ADSL) mais pas sur la fibre. En 2017, Alternative Télécom avait déjà exigé davantage d’ouverture.

 

Cependant, il est impossible pour Orange d’ouvrir à la concurrence un réseau construit à coups de milliards d’investissements. Les petits opérateurs estiment quant à eux que l’opérateur a été favorisé par son empreinte historique sur le câble, qu’il a pu très vite convertir en fibre. Aujourd’hui, Orange contrôle environ 70 % du marché de la fibre pour les entreprises.

 

De son côté, l’Autorité de la concurrence a choisi de réguler ce marché en faisant émerger un troisième acteur, Kosc, pour « casser » la prédominance d’Orange-SFR. Cet opérateur « de gros » déploie lui-même son réseau fibre qu’il loue ensuite aux petits opérateurs de l'AOTA ou d’Alternative Télécom. « Kosc, c’est un bon complément, mais c’est une solution parmi d’autres. Et de toute façon, le réseau de Kosc n’a pas la même capillarité qu’Orange » explique l’un de ces petits opérateurs. La balle est donc maintenant dans le camp de l’Arcep.

 

 

 

 

 Lire l'article

 

Source : Les Echos

 

 

 

 

Nouvelle interconnexion !

Le lundi, 22 juillet 2019. Posté dans Archives Rezopole Archives LyonIX

Nouvelle interconnexion !

Le peering InterIXP de LyonIX s’est renforcé en Suisse où un nouveau lien a été établi avec le point d’échange de SwissIX. Tous les membres de ce nœud d’échange, répartis sur les villes de Zurich, Bâle et Bern, peuvent échanger du trafic avec les membres de LyonIX au travers des annonces disponibles sur les route-servers.

 

Après le CIXP, SwissIX est le second IXP auquel LyonIX se connecte en Suisse. Cette nouvelle interconnexion permet d’augmenter le nombre d’acteurs suisses atteignables via LyonIX comme le confirme l’établissement d’un trafic stable depuis la mise en place de la liaison.

 

L’équipe de Rezopole se tient à votre disposition pour tout renseignement relatif à cette nouvelle interconnexion. Consultez également la weather-map de Rezopole pour découvrir les autres liaisons inter-IXP régionales et nationales !

 

 

 

 

La Savoie tient sa fibre optique

Le lundi, 22 juillet 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

La Savoie tient sa fibre optique

Un mois après la validation par l'Arcep, le contrat a finalement été signé entre le département et Savoie Connectée. Une opération qui intervient deux ans après la résiliation par le conseil départemental de son contrat avec Axione, filiale de Bouygues. À l’époque, un investissement de 223 millions d’euros était prévu : 63 millions d’euros financés par les collectivités locales et 70 millions d’euros octroyés par la région, l'État et l’Union européenne.

 

En 2017, des élus de la Maurienne avait confié à Fibréa la pose de son propre réseau de fibre optique. Le conseil départemental accusait alors ces derniers d’avoir déséquilibré la délégation de service public conclue avec Axione. Les élus mauriennais disaient quant à eux en avoir eu assez d’attendre que le département déploie la fibre. Ils s’en étaient donc chargés eux-mêmes pour assurer le développement de leur territoire.

 

Quelques mois après la résiliation, le gouvernement proposait aux collectivités locales de déployer des AMEL afin d’accélérer la pose de la fibre optique en zones rurales. Un dispositif permettant aux conseils départementaux de faire financer le déploiement sur fonds propres des opérateurs.

Le département de la Savoie a donc choisi ce cadre pour déployer son réseau de fibre optique en milieu rural. Et c’est Savoie Connectée qui finance le coût des travaux, en s'appuyant sur ses actionnaires (Covage à 70 % du capital et Orange à 30 %). D’ici quatre ans, 255 000 prises devront être raccordées dans 243 communes de la Savoie. La quasi-totalité du territoire du département sera alors reliée à très haut débit.

 

L’opération n’est pas nouvelle pour Covage puisque l’opérateur exploite la DSP de la fibre optique sur 246 communes en Haute-Savoie. Et il s’est également vu attribuer un AMEL en Saône-et-Loire.

Le département n’a donc plus à se soucier du financement et le délai de déploiement se trouve raccourci. L’échéance est fixée en 2023 au lieu de 2026 dans le contrat résilié avec Axione. Le conseil départemental aura cependant versé 6,8 millions d’euros de dédommagement à Axione pour se libérer.

Il y a un an, Covage faisait l’acquisition de Fibréa, la société qui a câblé près de 500 kilomètres de fibre optique en Maurienne. Dès lors, la répétition du scénario du contrat précédent est écartée. « Cela évite tout conflit ultérieur », acquiesce Hervé Gaymard, président du conseil départemental de la Savoie.

 

 

 

 

 Lire l'article

 

Source : La Tribune

 

 

 

 

Peut-on cartographier Internet ?

Le lundi, 22 juillet 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Peut-on cartographier Internet ?

Internet étant considéré comme un espace, est-il pour autant possible d’en fournir une représentation graphique complète, d’en tracer une ou des carte.s. ? Artistes et experts essaient depuis longtemps.

 

Pour trouver une réponse, le premier outil a été Google. Les résultats en français montrent principalement des cartes d’Internet vues de l’extérieur. Pour ceux en anglais, on obtient quelques visualisations du poids de sites en nombre de connexions.

 

Le géographe et chercheur à l’université de Lausanne Boris Beaude explique que cartographier Internet « permet de mieux saisir l’architecture [d’Internet et de ses sous-espaces, comme les sites Web], les acteurs qui les produisent, la réalité de ce qu’il s’y passe et les enjeux de pouvoir sous-jacents ».

Une idée pas foncièrement récente puisque lui-même s’est penché sur le sujet à la fin des années 90. Il avait alors constaté que « la suite des protocoles TCP/IP, ou même la seule commutation de paquets, repose sur des considérations essentiellement spatiales : comment rendre la communication la plus efficiente possible sur des réseaux hétérogènes et vulnérables ».

 

Au-delà des chercheurs, certains artistes se sont aussi penchés sur la question. Un designer américain, Chris Harrison, a représenté les trajets que réalisent les données à travers le monde. Il explique son geste assez simplement : « Les humains ont toujours eu tendance à représenter graphiquement les espaces dans lesquels ils évoluent. Or Internet, on s’y promène, ça bouge, il y a des millions, des trillions d’outils connectés entre eux ».

 

Louise Drulhe cherchait à représenter Internet pour son diplôme de l’Ecole des Arts-Déco. Elle a alors été confrontée à deux difficultés. La première est que l’espace au sein duquel nous évoluons en ligne bouge sans cesse. Elle explique ainsi à Numerama « c’est terrible, de vouloir représenter le cyberespace, parce que la rapidité à laquelle il change n’a rien à voir avec le géographique. Lorsque j’ai commencé à travailler sur mes premières cartes, en 2013, on parlait à peine de l’Internet chinois par exemple ».

La deuxième est le très faible nombre de représentations de l’espace en ligne. « En 2013, je travaillais sur un mémoire sur l’espace d’Internet, mais j’ai vite réalisé le manque d’information sur l’espace en ligne au sens où je l’entendais. On trouvait quelques cartographies anciennes, des années 90. Mais cela n’avait rien à voir avec le cyberespace actuel » indique la jeune femme.

 

D’après Boris Beaude, le manque de représentations s’explique par le fait que ce sont les « imaginaires puissants, qui laissent penser que tout le vocabulaire spatial associé à Internet serait métaphorique ». Il attribue ce mélange à « une conception matérialiste de l’espace ». Le territoire et « la matérialité du sol sur lequel reposent nos pieds » seraient trop souvent confondus avec l’idée de spatialité.

 

Alors quelles mesures pour un espace en ligne ? Pour Boris Beaude, « la distance se pense en termes d’écarts, de contact ou d’interaction. Cela permet de penser la relation et la façon dont des êtres (et de plus en plus d’objets) sont reliés et interagissent ». Et de montrer les architectures qui facilitent ces contacts.

 

Louise Drulhe a opté pour une multiplicité d’hypothèses qui donnent à voir un aspect différent d’Internet. Mais toutes répondent au même besoin : « se représenter Internet aide à comprendre les enjeux (géo)politiques qui le traversent ».

L’artiste ne s’arrête pas là puisque sa dernière hypothèse est celle d’une architecture d’Internet qui serait propre à chacun. Il est peut-être impossible de cartographier Internet pour la simple et bonne raison qu’aucune route n’y est empruntée exactement deux fois de la même façon.

 

Boris Beaude répond à cela en opposant navigation personnelle et pouvoir des plus grands réseaux mondiaux : « Google et Facebook sont les deux acteurs qui disposent de la plus grande visibilité sur les spatialités numériques contemporaines ». Paradoxalement, donc, « s’il est difficile de cartographier Internet tant les relations qui en constituent l’espace sont démesurées et réticulaires, il n’a jamais été aussi simple pour ceux qui en ont la maîtrise de cartographier la spatialité des individus ».

Et d’en conclure qu’« il faudra bien que les politiques se demandent ce qu’ils cherchent à contrôler : les choses [en l’occurrence, les données, ndlr] ou le mouvement des choses et l’architecture qui rend ce mouvement possible ». Un espace transfrontalier et démesuré par excellence.

 

 

 

 

 Lire l'article

 

Source : Numerama

 

 

 

 

Arcep : Internet Ouvert

Le jeudi, 11 juillet 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Arcep : Internet Ouvert

L’Autorité de Régulation des Communications Électroniques et des Postes publie l’édition 2019 de son bilan de santé de l’Internet en France. Remis au Parlement, ce rapport met en avant les actions conduites pour assurer l’ouverture d’Internet, s’intéresse aux potentielles menaces et présente l'action du régulateur pour les contenir.

 

Le bilan en bref !

 

1- Qualité de services

 

Les comparateurs de services sont si peu homogènes aujourd’hui que l’Arcep a souhaité les perfectionner via la mise en place d’une API dans les box déclinant la « carte d’identité de l’accès » de chaque terminal. Ceci permettra un bien meilleur diagnostic avec une information fiable sur les paramètres de chaque mesure. Cette API est complétée par un code de conduite. Adopté progressivement par les acteurs de la mesure, il permet de gagner en fiabilité, en transparence et en lisibilité des résultats.

 

2- Interconnexion de données

 

En constante évolution, cet écosystème peut être le terrain de tensions ponctuelles. Un suivi vigilant du marché est exercé par l’Arcep. Elle publie dans son baromètre annuel de l’interconnexion en France des données issues de sa collection d’information. Lorsque la situation l’exige, l’Arcep peut aussi se faire « gendarme » et régler les différents entre les acteurs.

 

3- Transition vers IPv6

 

La fin d’IPV4 est désormais prévue pour juin 2020. Les déploiements de l’IPv6 prévus par les opérateurs risquent de ne pas permettre de répondre à la pénurie d’adresses IPv4. C’est pourquoi, l’Arcep organisera la première réunion de travail de la « Task-Force IPv6 » au second semestre 2019. Ces réunions auront pour objectif d’accélérer la transition vers IPv6 en France en partageant les expériences des différends acteurs et en définissant des actions à mettre en place.

 

4- Neutralité du Net

 

Les lignes directrices de la mise en pratique du principe de neutralité du net par les régulateurs nationaux ont globalement faits leurs preuves. Le pays bénéficie d’un bilan positif. L’Arcep veille toutefois à ce que les fournisseurs d’accès continuer d’ajuster leurs pratiques en conformité avec le cadre réglementaire européen.

 

5- Ouverture des terminaux

 

Si en termes de neutralité du net, l’Arcep peut exercer sa protection sur les réseaux il existe un maillon faible : les terminaux. Adopté au début de cette année, le règlement européen « Platform-to-business » apporte plus de transparence sur les pratiques des plateformes en ligne vis-à-vis de leurs clients entreprises. Mais ce règlement ne permet pas encore d’assurer la neutralité des terminaux. L’Arcep a émis 11 propositions concrètes pour assurer un Internet ouvert de « bout en bout » dans un rapport consacré à la question en février 2018.

 

 

 

 

 Lire le rapport

 

Source : Arcep

 

 

 

 

3,8 milliards de personnes ont désormais accès à Internet

Le jeudi, 11 juillet 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

3,8 milliards de personnes ont désormais accès à Internet

Depuis 1995, Mary Meeker, investisseuse dans la puissante société de capital-risque Kleiner Perkins Caufield & Byers, remet un rapport sur les grandes tendances d’Internet. Une analyse portant sur l’utilisation mondiale du Web et de ses services : e-commerce, réseaux sociaux, jeux vidéo, podcast, objets connectés divers, etc.

 

L'édition 2019 franchit un nouveau cap ! D’après ce document, plus de la moitié (51 %) de la population mondiale a désormais accès à Internet, soit plus de 3,8 milliards de personnes dans le monde. Alors qu’en 2009, il y a tout juste dix ans, ce taux était seulement de 24 %. La Chine, l’Inde et les États-Unis sont les trois pays avec le plus d’internautes au monde.

 

Reste néanmoins que la croissance mondiale ralentit chaque année. Entre 2018 et 2019, elle était de 6 %. En effet, pour Mary Meeker, il est plus difficile de connecter de nouvelles personnes au fur et à mesure que le nombre d’internautes augmente.

 

Le rapport détaille, par exemple, que les Américains passent 6,3 heures en ligne par jour. Une moyenne en hausse de 7% par rapport à l’année dernière. Ils passent désormais plus de temps devant leur mobile (presque 4h par jour en moyenne) que devant leur télévision (environ 3h30).

 

On retrouve également dans le document les 30 entreprises des nouvelles technologies les mieux valorisées au monde. Parmi elles, 18 sont Américaines, 7 sont Chinoises et seulement 1 Européenne (Spotify, l’application suédoise de musique, se place dans ce classement, à la 30e position).

 

 

 

 Lire l'article

 

Source : Le Figaro

 

 

 

 

Le réseau Internet est en train de se noyer

Le mardi, 02 juillet 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Le réseau Internet est en train de se noyer

Les câbles à fibre optique, les stations de transfert et de stockage de données et les centrales électriques forment un vaste réseau d'infrastructures physiques qui sous-tend les connexions Internet.

 

De récentes recherches révèlent qu’une grande partie de ces infrastructures seront affectées par la montée des eaux dans les prochaines années. Après avoir cartographié l'infrastructure du réseau Internet aux États-Unis, des scientifiques l’ont superposée aux cartes montrant l'élévation du niveau de la mer. Leurs résultats : en 15 ans, des milliers de kilomètres de câbles en fibre optique ainsi que des centaines d'autres infrastructures essentielles risquent d'être submergés par les flots. Toujours selon les chercheurs, les quelques centimètres d'eau supplémentaires pourraient plonger près de 20 % des infrastructures Internet américaines sous l'eau.

 

« Une grande partie de l'infrastructure existante est située juste à côté des côtes, de sorte qu'il ne faut pas beaucoup plus que quelques centimètres d'eau en plus pour qu'elle se retrouve sous l'eau », précise Paul Barford, scientifique à l'Université du Wisconsin, Madison, et coauteur de l'étude : Le réseau a été déployé il y a 20 ans, quand personne ne pensait au fait que le niveau de la mer pouvait monter.

La structure physique du réseau Internet a été installée quelque peu au hasard et souvent de façon opportuniste le long de lignes électriques, de routes ou d'autres grandes infrastructures au cours des dernières décennies quand la demande a explosé.

 

Si les scientifiques, les concepteurs et les entreprises sont depuis longtemps conscients des risques que représente la montée des eaux pour les routes, les métros ou encore les lignes électriques, personne ne s'était intéressé jusqu’à présent aux conséquences qu'elle pourrait avoir sur le réseau Internet physique.

« Quand on considère combien tout est lié aujourd'hui, protéger le réseau Internet est crucial », estime le directeur du Resilient Infrastructure Laboratory à l'université d'Arizona, Mikhail Chester. Même les plus petits incidents techniques peuvent avoir des conséquences désastreuses. Il continue « cette nouvelle étude renforce l'idée selon laquelle nous devons être conscients de l'état de ces systèmes, parce que cela prendra beaucoup de temps pour les mettre à jour ».

Rich Sorkin, co-fondateur de Jupiter Intelligence, une société qui modélise les risques induits par le climat, indique quant à lui « nous vivons dans un monde pensé pour un environnement qui n'existe plus ». Et conclut par « accepter la réalité de notre avenir, est indispensable - et ce type d'études ne fait que souligner la rapidité à laquelle nous devrons nous adapter ».

 

 

 Lire l'article

 

Source : National Geographic

 

 

 

 

Les opérateurs veulent éviter la surchauffe

Le mardi, 02 juillet 2019. Posté dans Archives Rezopole Archives GrenoblIX Archives LyonIX

Les opérateurs veulent éviter la surchauffe

Les opérateurs de télécommunications s’inquiètent des répercussions de cet épisode caniculaire sur leurs réseaux d'infrastructures. Tout comme la canicule peut avoir des effets sur les smartphones, tablette et autres laptops, les infrastructures qui sous-tendent les réseaux de télécommunications peuvent également souffrir en cas de forte chaleur. En effet, le réseau électrique, fortement sollicité et soumis à des fortes chaleurs, peut faire faux bond à ces équipements. Ils peuvent alors cesser de fonctionner de manière ponctuelle et localisée.

 

Mais la véritable "vulnérabilité" de ces infrastructures se concentre sur deux points de réseaux spécifiques : les antennes-relais et les data centers. Selon les équipements considérés, le seuil de température à ne pas dépasser se situe autour de 50 degrés Celsius.

Les antennes-relais sont particulièrement exposées aux fortes chaleurs puisqu’elles sont situées en hauteur, et notamment sur les toits des immeubles en milieu urbain. Le risque de voir leurs composants électroniques se mettre en veille en cas de surchauffe n'est donc pas négligeable.

Dépendants de leurs systèmes de climatisation ainsi que d'appareils d'évacuation d'air, les data centers risquent la surchauffe en cas de défection de ces derniers.

 

Toutes les attentions de la part des opérateurs sont focalisées sur le fait de ne pas dépasser les 50 degrés Celsius. "Nous avons mis en place un système de veille météorologique pour nous permettre de prévenir en cas de catastrophe naturelle et d'analyser la bonne tenue de chaque point de notre réseau […] Nous avons concentré au cours des derniers mois nos campagnes préventives sur le suivi des équipements de maintenance et de climatisation de nos infrastructures pour plus de sécurité", explique Hubert Bricout, directeur régional de Bouygues Telecom pour l’Île de France et le Nord-Est.

En cas de panne sur un site, des équipes d'intervention rapide seront dépêchées. Pour venir appuyer les systèmes déjà en place, des équipements de climatisation mobile ont également été réservés en cas de surchauffe d'un point de réseau.

 

 

 Lire l'article

 

Source : ZDNet

 

 

 

 

FaLang translation system by Faboba