Archives de Catégorie: Réseaux informatique

L’e-G8, un sommet à l’impact limité

 

Alors que le sommet du G8 s’est achevé vendredi soir à Deauville, les conclusions de l’e-G8, le sommet préparatoire consacré à Internet qui s’est déroulé mardi et mercredi à Paris ne sont pas encore connues – signe de la difficulté à établir un consensus entre les participants. Quel a été l’impact de ces deux jours de discussions, auxquelles participaient 1 500 personnalités, principalement des chefs d’entreprises Web et entièrement financés par des fonds privés ? Malgré la présence à Deauville d’une « délégation » de l’e-G8, la déclaration finale du G8 semble avoir finalement peu tenu compte des débats du sommet préparatoire.

 

 Nicolas Sarkozy a ouvert hier le premier e-G8 : « Ne laissez pas la technologie que vous avez forgée porter atteinte aux droits élémentaires des enfants… »  photo afp

Le G8 a bien adopté, jeudi, une déclaration intitulée « un nouvel élan pour la liberté et la démocratie » comprenant un chapitre sur Internet, mais focalisée sur des sujets peu présents à l’e-G8. Les huit pays les plus industrialisés y réaffirment le rôle moteur d’Internet à la fois dans le développement économique et dans la diffusion de la démocratie, et affirment s’être « entendus sur plusieurs principes fondamentaux, tels que la liberté, le respect de la vie privée et de la propriété intellectuelle, la gouvernance multi-acteurs, la cyber-sécurité et la protection contre la criminalité ». Un texte jugé déséquilibré par plusieurs associations, dont la Quadrature du Net, très critique sur la place accordée au secteur privé par l’e-G8.

PROTÉGER LA PROPRIÉTÉ INTELLECTUELLE

Dans le détail, la déclaration prévoit des engagements sur de nombreux points, dont certains n’étaient pas abordés à l’e-G8. Les Etats signataires s’engagent notamment à protéger la propriété intellectuelle par des « mesures fermes » ; à défendre la liberté d’expression et d’accès au réseau, la vie privée, et à lutter contre l’exploitation sexuelle de enfants et les menaces terroristes en ligne. Ils prévoient également de maintenir les principes « de la non-discrimination et de la concurrence équitable » en ligne, faisant allusion sans le nommer au principe de la neutralité du Net.

L’impact de l’e-G8 sur la déclaration finale du G8 semble mince. Si les participants aux débats avaient défendu, durant deux jours, le principe du maintien d’un environnement Web ouvert et laissant la place à une libre concurrence, les entrepreneurs demandaient également aux gouvernements de ne légiférer qu’avec précaution. Or, la déclaration finale invite les Etats à prendre des mesures législatives dans de nombreux domaines.

BLOCAGE DES ETATS-UNIS SUR LA FISCALITÉ

Certaines des propositions formulées durant le sommet – préférer les solutions techniques aux lois en matière de lutte contre la contrefaçon, par exemple – sont restées lettre morte. Cette dernière proposition avait pourtant été formulée par Eric Schmidt, le directeur exécutif de Google, qui faisait partie de la délégation qui s’est rendue à Deauville et a rencontré directement les chefs de gouvernemen.

En revanche, deux des trois points-clefs présentés par Nicolas Sarkozy dans son discours d’ouverture de l’e-G8 font bien partie de la déclaration finale du G8 : la défense du droit d’auteur et la protection de la vie privée – un sujet non abordé à l’e-G8, où la Commission nationale informatique et libertés n’était pas invitée.

Quant au troisième point défendu par Nicolas Sarkozy, le renforcement des contributions fiscales des entreprises Web dans les pays où elles vendent produits ou services, il est totalement absent de la déclaration de Deauville. En raison d’un désaccord avec les Etats-Unis, où sont situés les sièges sociaux de la majorité de ces entreprises ? En cas de blocage, les pays européens pourraient tenter de mettre cete question à l’agenda du G20, où le poids relatif des Etats-Unis est plus faible qu’au G8.


E-g8 : Facebook bientôt ouvert aux moins de 13 ans ?

Facebook M.Z
Sur la page d’inscription de Facebook, il faut indiquer avoir plus de 13 ans pour ouvrir un compte. Bientôt, ce ne sera sans doute plus le cas.

Peu le savent mais Facebook est interdit aux moins de 13 ans. Mais ce ne sera peut-être plus longtemps le cas car Mark Zuckerberg, le jeune patron du réseau social, s’est fixé comme objectif de faire sauter cette barrière et de rendre son «trombinoscope» accessible aux plus jeunes. A la veille du grand rendez-vous des géants de l’Internet à Paris, l’info pourrait bien faire bondir les défenseurs des enfants.

Faire sauter un verrou juridique

C’est sur CNN que le milliardaire de 27 ans a annoncé lundi son nouveau «combat» : « Ma philosophie est que pour l’éducation vous devez commencer à un très, très jeune âge ». Or aux Etats-Unis, une loi américaine interdit aux sites Web qui collectent des informations sur les utilisateurs d’ accepter les moins de 13 ans. Jusque là, Facebook traquait les tricheurs et affirme même supprimer 20.000 comptes par jour. Pour Zuckerberg, cette loi est désormais un verrou à faire sauter, ne serait-ce que pour étudier et analyser ce qu’il est possible de faire en termes d’apprentissage avec les réseaux, pour «apprendre ce qui marche».

Assurer la protection des plus jeunes

« A l’avenir, la technologie et les logiciels permettront aux gens d’apprendre beaucoup de leurs camarades » assure-t-il avant de rassurer les associations de défense de l’enfant : « Nous prendrions toutes les précautions afin de s’assurer que les plus jeunes sont protégés ».

Les géants de l’internet mondial se retrouvent mardi matin pour la première édition d’un «e-G8» consacré aux enjeux du numérique dont les débats, qui se tiennent jusqu’à mercredi soir, vont alimenter le sommet du G8 de Deauville (27-28 mai). Facebook, Google, eBay ou encore Microsoft: la quasi-totalité des grands noms de l’internet ont fait le déplacement et vont défendre leur vision de la Toile et du modèle économique à mettre en place pour assurer son développement et sa pérennité.

Qu’en pensez vous ?


Warrior of the net : Explication du fonctionnement d’internet pour les novices

Que se passe-t-il lorsque l’on clique sur un lien web ?

Voici une petite vidéo qui est un outil d’introduction parfait au fonctionnement d’internet pour les utilisateurs novices ou pour les étudiants qui commencent une spécialisation en réseau informatique (un bon moyen pédagogique pour faire passer des heures de théorie …)

La traduction en Français est un peu « barbare » donc, pour les anglophones, il y a la version originale en HD (que je trouve bien plus sympa)

VF:

VO (HD):

Et puis, si le chargement de la vidéo est long, vous avez peut être raté cet article !


Ralentissement de Youtube ? En voici l’explication !

La plupart des internautes français le constatent : Youtube rame complètement. Impossible depuis plusieurs semaines de lire correctement une vidéo en 360p et je ne vous parle même pas de la HD. Quels sont les FAI qui rencontrent un souci avec Youtube ? :

  • Free – Touché très fortement
  • SFR – Touché
  • Orange -Touché
  • Bouygue – Pas de problème
  • Numéricable – Pas de problème
  • Renater et autres machins un peu exotiques – Pas de problème

Pas besoin donc de rebooter ma Freebox en invoquant l’esprit magique de Xavier Niel (l’équivalent de eywa chez les na’vi).

SFR FAI   La stratégie du pourrissement

SFR

numericable FAI   La stratégie du pourrissement

Numéricable

renater FAI   La stratégie du pourrissement

Renater

bouygues FAI   La stratégie du pourrissement

Bouygues

orange1 FAI   La stratégie du pourrissement

Orange

free FAI   La stratégie du pourrissement

Free

Le problème ici est un problème de tuyau et d’argent. Une histoire digne d’un épisode de Dallas ou Dynastie !! Je vais essayer de vous expliquer les raisons de ce blocage pour le moins énervant…

Comme on l’a vu par le passé avec des histoires comme Megaupload et Orange, ou encore Neuf et Dailymotion, les internautes continuent d’être les victimes permanentes d’une guerre que se livrent les FAI et les fournisseurs de contenu. Si je prends le cas de Youtube, il y a effectivement de plus en plus de monde qui s’y connecte pour regarder des vidéos de plus en plus lourdes. Les tuyaux entre les FAI et Youtube, qui ont été mis en place suite à des accords de peering ne sont plus assez « gros » (en plus d’être mal équilibrés), ce qui provoque un engorgement.

Le résultat est là : une majorité d’abonnés ADSL français sont dans l’incapacité de lire une vidéo Youtube sans la laisser pré-charger pendant 1/4 d’heure.

Seule solution pour régler le problème : Augmenter la taille du tuyau.

Techniquement, c’est faisable très simplement… Alors pourquoi est ce que ce problème perdure ? Et bien la vraie raison est que cela coûte un peu d’argent.

La question est donc : Qui doit payer ?

Le deal que nous avons tous passé avec notre FAI est le suivant : « Je te paye un abonnement tous les mois et tu me donnes accès à Internet »Mais aujourd’hui, ce deal n’est plus respecté.

En effet, que ce soit à l’époque avec le cas Megaupload, ou maintenant avec Youtube, ce n’est plus un véritable accès à Internet que nous avons. Nous nous dirigeons petit à petit vers un internet qui ressemblera plutôt à un bouquet payant de sites internet.

Bof bof… Je suis désolé mais je paye un abonnement aussi pour avoir accès à Youtube. Cette situation n’est donc pas normale et doit être réglée. Historiquement et logiquement, c’est aux FAI de se démerder pour que l’accès de leurs abonnés soit le plus fluide possible, quelque soit le site internet consulté.

Mais comme je vous le disais, augmenter la taille des tuyaux coûte un petit peu d’argent. Les FAI tentent donc depuis plusieurs mois de faire pression sur certains éditeurs de contenu et en particulier Google, pour que ceux-ci prennent à leur charge cette dépense. On la vu encore récemment avec SFR qui a tenté un coup de poker avec OVH en essayant de leur faire payer le peering.

Seul hic : Les éditeurs de contenu ne veulent pas payer. Google fait de la résistance et avec lui des services de CDN comme Akamai.

Vous l’aurez compris, nous sommes dans une impasse… Il s’agit d’un vrai bras de fer entre les FAI et les fournisseurs de contenu. Et malheureusement, la stratégie adoptée par Free, Orange et SFR semble être celle du pourrissement. On laisse l’accès au site Youtube pour ne pas être accusé de censeurs, mais avec un débit de merde, pour que les gens pensent que c’est chez Youtube que ça coince. Je déduis quand même, à la vue des graphiques envoyé par mes gentils followers, qu’Orange et SFR ont un peu plus de pitié pour leurs abonnés et doivent déporter une petite partie du surplus de ces connexions sur du Transit IP (c’est à dire de l’achat de bande passante à un opérateur). Par contre, chez Free, ils sont sans pitié… Un véritable manque de respect pour ses abonnés !

Free veut jouer les gros bras face à Google, alors on laisse saturer le peering et basta. Stratégie très agressive dont nous subissons tous les conséquences… On nous a d’ailleurs tellement bien bourré le crâne en nous expliquant que si le FAI prenait à sa charge ce coût d’évolution actuelle, le prix de notre abonnement ADSL augmenterait, qu’en bon français grippe-sou, nous en venons à défendre bec et ongle notre FAI, montrant du doigt le méchant Google ! Hors de question de voir notre abonnement ADSL augmenter !

Pire, on plaindrait presque les FAI de devoir payer la facture… « Non, mais vous comprenez, les pauvres, pourquoi est ce qu’ils devraient augmenter les capacités de leur réseau pour 1 ou 2 site populaire comme Youtube ? » Pourquoi ??? Parce que c’est leur travail et qu’on les paye pour ça !

network map free FAI   La stratégie du pourrissement

Puis arrêter de tout faire passer par Paris, en améliorant le maillage du réseau, ça ne pourra pas faire de mal…

La vérité, c’est que les FAI ont tout l’argent nécessaire pour faire évoluer leurs infrastructures et assurer un accès internet de bonne qualité à leurs clients. C’est prévu dans leur business model depuis le début et je vais même vous dire mieux : Ils sont tellement rentables qu’ils pourraient le faire sans problème dès à présent ! Si je reprends le cas de Free et de la maison mère Iliad, leur activité est très très très rentable. D’après le dernier rapport de gestion publié par iliad [PDF], leur marge brute est de 55,9%, leur marge EBITDA de 39,1% et enfin, leur marge nette est de 15,3%.

Autant dire que l’argent pour upgrader son réseau, Free l’a largement avec ses 4,5 millions d’abonnés. Mais il semblerait qu’ils préfèrent réduire au maximum les dépenses sur le réseau actuel pour se concentrer sur l’avenir : le FTTH ou Très haut débit. L’idée en mettant le paquet dès le début sur le FTTH est toujours la même : Ecraser la concurrence en construisant le réseau de nouvelle generation le plus capillaire possible pour l’utiliser et le louer aux concurrents pendant des décénnies. C’est bien gentil tout ça, mais en attendant, moi j’ai toujours un accès merdique à internet… et je continue de payer comme un âne.

Une de mes sources qui traine un peu dans ce milieu, m’indique même que les 3 principaux opérateurs français que sont Orange, SFR et Free, auraient eu quelques « discussions » à ce sujet, dont le leitmotiv était « Il faut faire payer Google donc travaillons ensemble dans ce sens« . Ça reste à prouver bien sûr mais nos petits FAI français ne semblent avoir peur de rien ni de personne et s’imaginent probablement faire plier le géant américain. Si Bouygues et Numéricable ne dégradent pas leur service, c’est peut être simplement parce qu’ils sont trop petits pour entrer dans le cadre des discussions avec les autres FAI ? Vas savoir…

Autre point stratégique qui pourrait expliquer pourquoi les FAI choisissent cette technique du pourrissage, c’est leur annonce de proposer des services de CDN (Content Delivery Network). Pour faire simple et compréhensible par tous, un CDN est un réseau de plusieurs serveurs répartis géographiquement qui fait office de relai (comme un cache) pour distribuer les données localement sans que l’internaute ai à les chercher à l’autre bout du monde. Plus de rapidité et moins d’engorgement pour tous. Ce genre de service comme Akamai ou Cloudfront d’Amazon est payant pour les fournisseurs de contenu. En se faisant CDN et en faisant payer très chère l’interconnexion (peering privé), les FAI auront bientôt tous les pouvoirs pour prendre en otage les fournisseurs de contenu. En effet, quel autre choix aurait par exemple Google, que de s’offrir les services de CDN de Free pour que l’accès à Youtube se fasse dans de meilleures conditions ? C’est déjà le cas en Angleterre et ça semble poser de vraies questions. Ce sera bientôt le cas en France avec SFR. Dans le cadre du débat autour de la neutralité du net, les députés français se sont d’ailleurs posés la question de la dangerosité de cette double casquette FAI / Fournisseur de contenu. Qui empêchera tel FAI de favoriser son propre contenu ou de dégrader celui des autres ?

Malin non ?

Orange a racheté Dailymotion il y a peu de temps, et l’on peut très bien imaginer qu’un jour, ils dégradent “involontairement” le service vers Youtube en offrant un meilleur accès à Dailymotion par le biais d’une connectivité directe (peering privé) ou transit IP “made in Orange”. Heureusement, je leur fais confiance et ça n’arrivera pas… Euuh attendez… ah si, Orange est bien dans le trio des FAI qui empêchent leurs abonnés d’avoir un accès normal à Youtube et demandent que les éditeurs passent à la caisse. Zut alors…

Bref, tout ça pour dire que :

  • Non, ce n’est pas normal que l’accès à Youtube soit dégradé de cette façon
  • Oui, les coupables sont bien les FAI qui ne font rien pour sortir de cette situation (en trouvant un accord avec Google pour upgrader l’interconnexion avec leur réseau par le biais du peering ou d’un routage du surplus de trafic via des opérateurs de transit IP)
  • Non, ce n’est pas aux abonnés de trinquer pour cette histoire de sous

Je le dis et je le répète, je paye un abonnement Internet pour avoir accès à Internet dans sa globalité et pas juste aux sites que m’autorisent Monsieur Free, Monsieur Orange ou Monsieur SFR. Laissons tomber les pétitions et les beaux discours et allons directement à la case protestation en saturant d’appels les supports techniques (et commerciaux!) de nos FAI d’amour pour gueuler !

  • SFR : 1077
  • Orange : 3900
  • Free : 3244

Il n’y a que comme ça que ça peut faire changer les choses. C’est déjà arrivé par le passé avecDailymotion qui annonçait sur sa homepage que le service était dégradé par SFR et qu’il fallait les contacter via la hotline, et bizarrement, depuis plus aucun problème.

abonnes neuf4 FAI   La stratégie du pourrissement

Il faut l’ouvrir, faire un peu de bruit et compter sur l’intelligence des FAI concernés qui se rendront compte forcement à un moment, que prendre en otage ses propres abonnés pour négocier avec Google, n’est pas une solution viable à long terme.

Source korben.info


4G : impossible de savoir ce que veut réellement Eric Besson

4G : impossible de savoir ce que veut réellement Eric Besson

Photo : Eric Besson, le nouveau ministre de l’Industrie, de l’Energie et de l’Economie numérique  (D.R.)

(Source EuroTMTC’est ce qui s’appelle faire plaisir à tout le monde. Que vous soyez opérateur de réseau, nouvel entrant, MVNO, autorité de régulation ou haut fonctionnaire de Bercy, vous avez pu vous satisfaire des propos tenus par Eric Besson, le nouveau ministre de l’Industrie, de l’Energie et de l’Economie numérique lors des Assises du numérique, réunies jeudi 25 novembre à Paris.

Dans son discours, Eric Besson a en effet indiqué, à propos de l’attribution des fréquences dans la bande des 800 MHz et 2,6 GHz destinées aux futurs réseaux 4G, qu’il « lancerait l’appel à candidatures pour l’utilisation de ces fréquences début 2011.» Cet appel à candidature devra répondre « à trois objectifs essentiels : la couverture des territoires, l’accroissement de la concurrence, et la valorisation du patrimoine immatériel de l’Etat ».

Pour mémoire, le débat fait rage au sein du gouvernement entre les tenants d’une ligne purement budgétaire et ceux qui souhaitent fixer des obligations. Les premiers veulent maximiser les revenus tirés de la vente des fréquences tandis que les seconds veulent établir des obligations en matière de concurrence ou de couverture des zones mal desservies par les réseaux à haut débit. Entre les deux, le ministre n’a donc pas pris position.

Car les trois objectifs qu’il a énoncés sont contradictoires. Si on veut imposer des contraintes, cela suppose de diminuer le prix de réserve des licences, et dès lors, d’être prêt à accepter de moindres …

rentrées pour le budget de l’Etat. En fait, la feuille de route proposée par le ministre correspond largement aux propositions faites par l’Arcep. Ainsi, si Eric Besson se prononce en faveur d’un découpage en quatre lots de la bande de fréquences 800 MHz, il s’agissait de l’une des deux propositions de découpage présentées par l’autorité de régulation des télécoms.

Sur le soutien à apporter aux MVNO, l’Arcep a aussi maintenu un indice multiplicateur des offres en fonction du degré d’ouverture des réseaux mobiles aux opérateurs virtuels. Seul problème, ce système a déjà été mis en oeuvre pour l’attribution des deux derniers lots de fréquences 3G récemment et il n’a pas incité les opérateurs mobiles à se montrer plus accueillants. D’où la crainte exprimée par Alternative Mobile, l’association des MVNO, de voir les opérateurs de réseaux continuer à leur refuser la possibilité d’évoluer vers un modèle de « full MVNO », qui leur permettrait une plus grande autonomie.

Concernant la couverture du territoire, l’Arcep a aussi proposé, pour les fréquences du dividende numérique, des contraintes fortes en matière de couverture des zones blanches. Il est donc impossible, à partir du discours du ministre, de savoir dans quel sens tranchera finalement Matignon.

A moins que le débat sur le prix de réserve des licences ne soit un faux débat. « Quel que soit le prix retenu, les opérateurs mobiles se porteront acquéreurs, car le portefeuille de fréquences détenu par chaque opérateur va devenir un véritable élément différenciant » explique ainsi un acteur, les équipements permettant maintenant de gérer plusieurs technologies sur la même fréquence.

Cela favoriserait les principaux opérateurs, à commencer par France Télécom. Les autres, comme Iliad, auront, peut-être, eux, intérêt à constituer un consortium (avec TDF par exemple) pour avoir accès à ces fréquences, tout en limitant leurs risques financiers.



La SNCF met sa relation client à la sauce Twitter

La SNCF met sa relation client à la sauce Twitter


Désormais, les clients de Voyages-sncf.com pourront se mettre en relation avec un conseiller via Twitter. Le voyagiste en ligne a en effet lancé un nouveau compte, Clt_Voyagessncf. Cet outil de communication sera disponible 7 jours sur 7, de 8h à 21h, pour tous les problèmes rencontrés par les voyageurs.

Voyages-sncf.com, premier e-voyagiste en France en termes de fréquentation, souhaite, via ce compte Twitter, répondre aux interrogations de ses clients, les accompagner à chacune des étapes de leur parcours et recueillir leurs suggestions sur le site.

La relation client du voyagiste en ligne continuera d’enrichir sa présence sur les réseaux sociaux d’ici l’été avec le lancement de l’agent virtuel LEA sur Facebook. Il y a quelques mois, La Poste avait fait de même en utilisant Twitter comme outil pour sa relation client.


IPv6 : une migration entre promesses et craintes

Technologie – Solution à la pénurie d’adresses, IPv6 annonce aussi une simplification des réseaux, une meilleure gestion de la sécurité et de la qualité de service, et de nouvelles applications. Ces promesses font toutefois l’objet de vifs débats.

Vers une simplification des infrastructures

Pour éviter la pénurie d’adresses IPv4, opérateurs et entreprises utilisent depuis plus de dix ans des mécanismes de translation entre des adresses privées et publiques. C’est la technologie NAT (Network Adress Translation). « Les opérateurs mobiles doivent garder en rétention toutes les translations afin d’archiver les connexions des utilisateurs, c’est un véritable casse-tête », note ainsi Nicolas Fischbach, directeur en charge de la stratégie et de l’architecture réseau chez Colt.

Cela vaut aussi pour les entreprises multisites, contraintes de gérer différents plans d’adressage. En théorie, IPv6 promet la suppression du NAT, donc la simplification des infrastructures qui deviendront plus faciles à faire évoluer et à administrer. En fait, il existe encore un débat, certains défendant l’idée que le NAT sera conservé grâce à sa capacité à segmenter réseaux privés et publiques à des fins de sécurité.

Sécurité : entre réalité et quiproquo

« Le NAT apporte autant de sécurité que la ligne Maginot en 1940, la solution est dans la mise en oeuvre de systèmes fiables », lance Alexandre Cassen, directeur R&D et nouvelles technologies chez Free. Les échos sont les mêmes dans les rares entreprises ayant déployé IPv6.

TBS-Internet, qui propose des services d’infogérance, a ainsi supprimé le NAT mais a installé deux firewalls par PC, respectivement pour IPv4 et IPv6. « L’argument selon lequel NAT est une protection est faux car cela ne dispense pas de mettre sur les PC des firewalls, dont l’efficacité est suffisante », explique Jean-Philippe Donnio, PDG de TBS-Internet.

Chez France Telecom, on est du même avis, d’autant que la translation pose des problèmes justement liés à la sécurité. « IP-Sec traversant mal le NAT, nous devons allouer des adresses IPv4 publiques pour nos offres 3G destinées aux entreprises », explique Christian Jacquenet, directeur du programme IPv6 pour le groupe France Telecom. Le NAT est d’autant moins nécessaire qu’IPv6 implémente des mécanismes alternatifs comme les adresses locales non routables. « Elles seront utilisées pour les systèmes les plus critiques », affirme Nicolas Scheffer, responsable marché, infrastructures et développement IPv6 chez Cisco.

IPv6 introduira de nouvelles vulnérabilités

Il existe en outre un quiproquo sur la sécurité que procurerait l’intégration dans IPv6 du protocole de chiffrement IP-Sec. En fait, il faudra toujours activer ce chiffrement et mettre en place des mécanismes d’échanges de clés. « Ce sera juste plus facile à administrer », affirme Jean-Marc Chartres, consultant chez Telindus. Les éditeurs seront toutefois plus enclins à intégrer le chiffrement dans leurs logiciels. « Un service comme Skype chiffrera sans imposer l’installation d’un client VPN », cite Dimitri Desmidt, technical marketing engineer chez A10 Networks.

Parallèlement, IPv6 réduira certaines vulnérabilités mais en introduira d’autres. Ainsi, il résistera mieux à des attaques reposant sur des bases de scanning car il y aura bien plus d’adresses à scanner. A l’inverse, les systèmes de sécurité basés sur la réputation seront à revoir car les spammeurs changeront facilement d’adresse. Et comme pour IPv4, de nouvelles vulnérabilités apparaîtront. « Il faudra les prendre en compte en amont dans les politiques de sécurité », conseille Christian Pétrus, chef de produits IPv6 chez OBS. En somme, la cohabitation des deux protocoles doublera l’effort de gestion de la sécurité.

Qualité de service : une amélioration induite

La suppression du NAT devrait réduire la latence, voire augmenter un peu les débits. Mais IPv6 n’entraîne pas en soi d’amélioration de la qualité de service, qui relèvera toujours du « best effort ». Avec IPv4, il est déjà possible de mettre en oeuvre des mécanismes de priorisation des flux. Même si les labels de flux sont intégrés dans l’en-tête IPv6, ces mécanismes ne changent pas et devront toujours être pris en compte par les applications.

La possibilité de conserver la même adresse permettra une généralisation d’applications bidirectionnelles ou à l’initiative des serveurs, en mode push. Les applications mobiles seront les premières concernées. « L’auto-configuration sera totale et on pourra conserver le contexte et les communications n’importe où sur Terre », précise Nicolas Scheffer.

Support de nouvelles applications

De plus, IPv4 n’a pas été écrit pour les communications temps réel de bout en bout. Même entre des sites fixes, IPv6 sera donc largement déployé dans le cadre de communications unifiées, surtout dans de grands projets internationaux. « Le processus sera lent car peu d’applications sont écrites nativement en IPv6 », regrette toutefois Jean-Marc Chartres.

De même, les offres cloud auront besoin de nombreuses adresses que seul IPv6 fournira. On en revient à une question d’espace d’adressage dont l’immensité ouvrira la voie à la connexion tous azimuts de terminaux et objets variés, accompagnée de leur cortège d’applications, notamment machine to machine (M2M).