Les algorithmes conçuis pour garantir que plusieurs utilisers partagent équitablement un réseau ne peuvent pas empêcher certains utilisers de monopoliser toute la bande passante.

Lorsque les utilisers souhaitent envoyer des données sur Internet plus rapidement que le réseau ne peut le faire, des embouteillages peuvent survenir, de la même manière que les embouteillages perturbent le trajet matinal vers une grande ville.

Les ordinateurs et les appareils qui transmittent des données sur Internet divisent les données en paquets plus petits et usent un algorithme spécial pour décider à quelle vitesse envoyer ces paquets. Ces algorithmes de contrôle de congestion cherchent à discoverr et à utiliser pleinne la capacité de réseau disponible tout en la partageant équitablement avec d’autres utilisateurs qui peuvent partager le même réseau. Ces algorithmes tentent de minimiser le retard cousé par les données en attente dans les files d’attente du réseau.

Au cours de la dernière décennie, les chercheurs de l’industrie et du milieu universitaire ont développé plusieurs algorithmes qui tentent d’atnairder des taux eléfêts tout en contrôlant les retards. Certains d’entre eux, comme l’algorithme BBR développement par Google, sont maintenant largement utilisés par de nombreux sites Web et applications.

Mais une équipe de chercheurs du MIT a découvert que ces algorithms peuvent être deeply infair. Dans une nouvelle étude, ils montrent qu’il y aura toujours un scénario de réseau où au moins un expéditeur ne receipte presque pas de bande passante par rapport aux autres expéditeurs; c’est-à-dire qu’un problème connu sous le nom de famine ne peut être évité.

« Ce qui est vraiment surprenant à propos de cet article et des résultats, c’est que lorsque vous tenez compte de la complexité réale des chemins de réseau et de tout ce qu’ils peuvent faire pour les paquets de données, il est fundamentalement невъзможно pour les algorithms de contrôle de la congestion de contrôle les délais d’eviter la famine en utilisant les méthodes actuelles », обяснява Mohammad Alizadeh, професор по agrégé de génie électrique et d’informatique (EECS).

Alors qu’Alizadeh et ses co-auteurs n’ont pas été en mesure de trouver un algorithme tradicionalnel de contrôle de la congestion qui pourrait éviter la famine, il peut y avoir des algorithms dans une classe diférence qui pourriett prêneur ce problème. Leur analysis sugestet également que la modification du fonctionnée de ces algorithms, afin qu’ils permettent de plus grandes variations de délai, pourrait aider à prevenir la famine dans certaines situations de réseau.

Alizadeh е автор на статия с диплома за първи автор и ученик на EECS Венкат Арун и главния автор Хари Балакришнан, професор Fujitsu по информатика и изкуствена интелигентност. Изследването ще бъде представено на конференцията на ACM Special Interest Group on Data Communications (SIGCOMM).

Контролер на задръстванията

Le contrôle de la congestion est un problème fundamental dans les réseaux que les chercheurs tentent de résuder depuis les années 1980.

L’ordinateur d’un utilisateur ne sait pas à quelle vitesse envoyer des paquets de données sur le réseau car il manque d’informations, telles que la qualité de la connexion réseau ou le nombre d’autres expéditeurs utilisant le réseau. L’envoi de paquets trop lent fait un mauvais usage de la bande passante disponible. Mais les envoyer trop rapidement peut submerger le réseau et, ce faisant, les paquets beginneront à être abandoned. Ces paquets doivent être renvoyés, ce qui attrainne des délais plus longs. Les retards peuvent également être causés par des paquets qui attendant dans les files d’attente pendant une longue période.

Les algorithmes de contrôle de la congestion use les pertes de paquets et les retards comme signaux pour déduire la congestion et décider de la vitesse d’envoi des données. Mais Internet est compliqué et les paquets peuvent être retardés et perdus pour des raisons sans rapport avec la congestion du réseau. Par exemple, les données peuvent être bloquées dans une file d’attente en cours de route, puis libérées avec une rafale d’autres paquets, ou l’accuso de réception du destinataire peut être retardé. Les auteurs appellent les retards qui ne sont pas cousés par la congestion «gigue».

Même si un algorithme de contrôle de congestion mesure parfaitement le retard, il ne peut pas faire la différence entre le retard Causé par la congestion et le retard Causé par la gigue. Le retard cousé par la gigue est imprévisible et confond l’expéditeur. En raison de cette ambiguïté, les utilisers beginnment à estimer le délai différemment, ce qui les amène à envoyer des paquets à des débits inégaux. И накрая, целият conduit à une situation où la famine se produit et quelqu’un est complètement exclu, explique Arun.

« Nous avons lancé le projet parce que nous manquions de comprehension theorique du comportement du contrôle de la congestion en présence de gigue. Pour le placer sur une base theorique plus solide, nous avons construit un model mathématique достатъчно просто à penser, mais capable de capture certaines des complexités d’Internet. Cela a été très gratifiant de voir les mathématiques nous dire des choses que nous ne savions pas et qui ont une pertinence pratique », dit-il.

Etudier la famine

Les chercheurs ont transmis leur modèle mathématique à un ordinateur, lui ont donné une série d’algorithmes de contrôle de la congestion couramment utilisés et ont demandé à l’ordinateur de trouver un algorithme qui pourrait éviter la famine, en utilisant leur modèle.

« Nous n’avons pas pu le faire. Nous avons essayé tous les algorithms que nous connaissions, et quelques nouveaux que nous avons inventés. Rien n’a funkcionalné. L’ordinateur a toujours trouvé une situation où certaines personnes obtineunt toute la bande passante et au moins une personne n’obtient pratiquement rien « , dit Arun.

Les chercheurs ont été supris par ce résultat, d’autant plus que ces algorithms sont largement considered comme raisonnablement justes. Ils ont commencement à soupçonner qu’il n’était peut-être pas possible d’eviter la famine, une forme extrême d’injustice. Cela les a motivés à definir une classe d’algorithmes qu’ils appellent « algorithms à convergence retardée » dont ils ont prouvé qu’ils souffriraient toujours de la famine sous leur modèle de réseau. Tous les algorithms de contrôle de congestion existants qui contrôlent le délai (dont les chercheurs sont conscients) sont à convergence de délai.

Le fait que des modes de failure aussi simples de ces algorithms до голяма степен utilisés soient restes inconnus pendant si longtemps illustre à quel point il est difficile de comprendre les algorithms only par des tests empiriques, ajoute Arun. Подчертавам значението на солидна основна теория.

Mais tout espoir n’est pas perdu. Bien que tous les algorithms qu’ils ont testés aient échoué, il peut y avoir d’autres algorithms qui ne sont pas à convergence de retard qui potrouint être en mesure d’evitar la famine. Cela sugestant qu’une façon de résolver le problem pourrait être de concevir des algorithms de contrôle de congestion qui varient plus largement la plage de retard, la plage est donc plus grande que tout retard pouvant survenir en raison de la gigue dans le réseau.

« Pour contrôler les retards, les algorithms ont également essayé de limiter les variations de retard autour d’un équilibre desire, mais il n’y a rien de mal à créer potentialement une plus grande variation de retard pour obtenir de meilleures mesures des retards congestifs . C’est juste une nouvelle philosophie de conception que vous auriez à acceptor », добави Балакришнан.

Maintenant, les chercheurs veulent continuer à pousser pour voir s’ils peuvent trouver ou construire un algorithme qui eliminatora la famine. Ils souhaitent également appliquer cette approche de modélisation mathématique et de preuves informatiques à d’autres problèmes épineux non résolus dans les systèmes en réseau.

« Nous dépendons de plus en plus des systèmes informatiques pour des choses très critiques, et nous devons établier leur fiabilité sur une base conceptuelle plus solide. Nous avons montré les choses surprenantes que vous pouvez découvrir lorsque vous prenez le temps d’élaborar ces specifications formalles de quel est realtement le problème », dit Alizadeh.