L’annonce est tombée avec le sérieux cérémonial réservé aux événements de portée nationale : Swisscom a obtenu 983 points au test Connect 2025, soit le score le plus élevé jamais mesuré en Suisse, en Allemagne et en Autriche… Une performance digne d’un record olympique ! L’occasion parfaite pour rappeler que l’année dernière, Swisscom avait déjà gagné, tout comme l’année d’avant, et celle d’avant encore… Ah ? Ben, voilà seize ans que la fête se répète, dixit…
L’ironie, dans tout ça, n’est pas tant dans la victoire de Swisscom (qui propose effectivement un réseau extrêmement bon), mais dans la nature même du rituel. Chaque automne, Connect publie son classement, Swisscom annonce son “score historique”, Sunrise rappelle qu’il n’est pas loin derrière, Salt jure avoir réalisé des progrès sensationnels, et tout ce petit monde respire la satisfaction d’élèves modèles qui viennent de décrocher un 6 en mathématiques. Et au passage, personne ne s’étonne vraiment que tout le monde soit très bon. On pourrait presque s’inquiéter le jour où l’un d’entre eux passerait sous le seuil du “Très bon”, tant l’écosystème semble répéter que la médiocrité n’existe plus dans la téléphonie mobile suisse…
Cela dit, la série a ses mérites. Les performances sont globalement élevées, la Suisse n’a aucune raison d’avoir honte de ses réseaux, et les ingénieurs de Swisscom, Sunrise et Salt travaillent bel et bien dur pour que chaque antenne survive aux aléas du terrain, aux hivers humides et aux parois en béton armé des immeubles des années 80 (ceux qui semblent avoir été coconstruits par une entreprise de télécommunications et un fabricant de cages de Faraday). La vraie question n’est pas de savoir si Swisscom mérite son 983, mais plutôt si ce chiffre raconte encore réellement quelque chose de pertinent pour la vie quotidienne.
Bref, l’occasion semble idéale pour décortiquer ce fameux test Connect, comprendre ce qu’il mesure, pourquoi tout le monde y gagne chaque année, et à quel point ces résultats se frottent (ou non) à la réalité vécue sur le terrain.
- Comment fonctionne Connect, ce juge impartial…
- Quand tout le monde gagne… ou presque
- L’autre grand test suisse : Bilanz, ses panels et ses biais (la petite parenthèse...)
- Petite chronique d’un retour à la réalité...
- Antennes, fréquences et densité : une explication plus structurelle
- L’utilité, mais aussi les limites, de ces tests “officiels”
- En conclusion : peut-on vraiment tester la Suisse ?
Comment fonctionne Connect, ce juge impartial…
Avant d’aller plus loin, remettre un peu de contexte technique ne fait jamais de mal. Connect est un magazine allemand spécialisé dans les télécommunications, bien implanté depuis des décennies. Son test annuel est probablement le plus connu d’Europe centrale, notamment parce qu’il couvre systématiquement la Suisse, l’Allemagne et l’Autriche, et qu’il est devenu une sorte de référence incontournable pour… les services marketing des opérateurs 😅. Quand un graphique a besoin d’un superlatif, Connect est toujours là pour les aider !
Le test n’est toutefois pas réalisé directement par les journalistes, ça serait trop facile, non ? Il est confié à une société externe, spécialisée dans les mesures terrain. Tout n’est pas clair, mais aux informations glanées, il semblerait que cette entreprise utilise des véhicules équipés de smartphones, des tests piétons, des scénarios de crowdsourcing et des batteries de mesures automatisées (si quelqu’un a une source fiable là-dessus, je le prends volontiers !). Bref, à priori, un protocole précis est appliqué, avec des plages géographiques définies, des trajets standardisés et des catégories d’évaluations bien documentées. Les critères sont nombreux : téléphonie vocale, débit, latence, streaming, stabilité, couverture en train, etc. L’ensemble tente donc d’offrir une comparaison équitable entre opérateurs.
Bien sûr, tout cela est sérieux, je ne vais pas dire le contraire qu’on soit d’accord ! Les tests sont réels. Les mesures existent. Les ingénieurs se déplacent. Les résultats sont vérifiables. Aucun doute là-dessus. La critique ne réside jamais dans l’honnêteté de la méthode, mais dans son périmètre : un test, même excellent, ne mesure jamais tout. Il mesure ce qu’il a décidé de mesurer, et la nuance fait toute la différence quand il s’agit de réseaux mobiles.
Le protocole privilégie les zones densément peuplées, les trajets représentatifs, les environnements “standardisés”. Une ville est une ville. Une gare est une gare. Un tunnel est un tunnel, du moins dans sa catégorie statistique… Mais le problème, c’est que la Suisse n’est ni un laboratoire ni une mégapole uniforme. Entre une ruelle zurichoise, un appartement fribourgeois, un hameau grison, un sous-sol genevois et une cabane de montagne en Valais, l’expérience utilisateur n’a rien d’homogène ! Et c’est précisément dans ces zones, souvent hors radar des tests, que les écarts se creusent.
Connect mesure donc les performances, mais surtout là où il décide de les mesurer. Ce qui, en Suisse, n’est déjà plus anodin !
Quand tout le monde gagne… ou presque
Donc je vais répéter un petit peu, chaque année et sans faute, le communiqué de Swisscom annonce la victoire éclatante de son réseau 🥇, Sunrise explique être très proche sur la plupart des critères qui font que Swisscom est si bon 🥈, et Salt insiste sur sa progression notable en disant qu’ils sont pas si mauvais que ça 🥉. Si l’on ne connaît pas le contexte, on pourrait presque croire que le pays vit un âge d’or de la téléphonie mobile où chaque opérateur atteint des sommets technologiques jamais vus.
Et pourtant… les retours d’utilisateurs racontent une histoire un peu moins harmonieuse. Les trois réseaux suisses sont bons, mais ils ne sont pas équivalents, et une différence de 5 ou 10 points dans un test Connect n’a rien à voir avec l’expérience vécue dans un bâtiment universitaire, un entrepôt, un immeuble des années 70 ou un restaurant perché en altitude.
Cela dit, l’effet marketing est redoutable : de tels classements, répétés chaque année, finissent par créer une impression d’équivalence quasi parfaite entre opérateurs, avec une seule grande constante narrative : Swisscom est légèrement mieux noté, Sunrise n’est jamais loin et Salt progresse beaucoup (oui je me répète beaucoup, désolé). Les trois messages se répètent (à ben oui…) presque mot pour mot depuis dix ans.
D’ailleurs c’est difficile parfois de ne pas penser à “L’École des fans” de Jacques Martin ! Cette émission mythique où chaque enfant, quel que soit son niveau, finissait invariablement avec un glorieux 10 sur 10. Il y a dans les tests Connect un petit parfum de ce moment culte de télévision. Swisscom, Sunrise, Salt… chacun repart avec sa médaille, comme si le jury hésitait à froisser quelqu’un et qui distribuait ses notes avec la générosité d’un enfant à l’École des fans. Bref, une ambiance délicieusement scolaire où même la plus petite fausse note finit transformée en victoire éclatante 😊.
L’autre grand test suisse : Bilanz, ses panels et ses biais (la petite parenthèse…)
Si Connect est le test technique le plus visible, Bilanz en propose un autre basé sur les retours clients. Ce test-là mesure non pas la performance technique pure, mais la satisfaction et la perception des utilisateurs. En théorie, c’est une excellente idée. Dans la pratique, cela dépend énormément du panel… Ah ?
Il y a quelques années j’avais trouvé un détail expliquant la méthode pour réaliser les classements, malheureusement, je n’arrive plus à retrouver ce site suisse allemand qui expliquait tout ça, donc je vais le faire mémoire en espérant ne pas trop raconter d’ânerie… La méthode Bilanz consistait à demander aux opérateurs des listes de clients “aléatoires”, proportionnelles à leur taille (ou qqc du style), pour que Bilanz puisse ensuite les contacter et obtenir des évaluations (évidemment, ce n’est pas Bilanz, mais encore une entreprise intermédiaire qui faisait ça). Sur le papier, rien à redire. Dans la réalité, la méthode souffre d’un biais plus amusant qu’il n’y paraît…
En théorie, plus un opérateur est petit, plus il peut facilement fournir une liste de clients soigneusement sélectionnés. Ce qui peut expliquer pourquoi les petits opérateurs sont souvent très bien notés à ce test. Cela n’a rien d’illégal, bien sûr. Il suffit de proposer des abonnés “sans histoire” : ceux qui sont contents, qui n’ont jamais appelé le support, qui ont un usage léger. À l’inverse, Swisscom, qui compte des millions de clients, ne peut pas trafiquer grand-chose. L’échantillon finit toujours par refléter la variété réelle du terrain, y compris les cas complexes, les utilisateurs exigeants ou les bâtiments hostiles aux ondes.
Le résultat est prévisible : dans les classements Bilanz, des petits acteurs régionaux comme Netplus obtiennent presque systématiquement des scores spectaculaires. On voit alors fleurir des communiqués annonçant un “service client exceptionnel” ou un “réseau exceptionnel”… alors même que Netplus utilise en réalité l’infrastructure mobile de Sunrise, qui est elle-même tout le temps moins bien notée dans le même test 🤦🏼♂️.
L’effet est savoureux : l’opérateur utilise un réseau moins bon chez Connect, mais décroche des notes incroyables chez Bilanz. Un sketch année après année qui ne veut plus dire grand-chose… même si, officiellement c’est une note “clients”.
Petite chronique d’un retour à la réalité…
Les tests, les scores et les classements sont intéressants, mais rien ne remplace l’observation concrète, quotidienne et systématique. Il y a une ou deux années, l’idée a germé de tester un abonnement low-cost de Sunrise (Digitec Mobile) pour mesurer la différence sans préjugés. Pas de volonté de prouver quoi que ce soit, juste l’envie d’avoir un comparatif propre, pragmatique, basé sur des usages réels… Après quoi j’aurais été content de donner mon argent à quelqu’un d’autre que Swisscom (bon d’accord Wingo) pour une fois.
Le principe était simple : garder une SIM principale Swisscom (Wingo), activer une SIM secondaire Sunrise (Digitec), et utiliser les deux réseaux simultanément pendant plusieurs mois. Une démarche presque scientifique dans son intention (bon j’exagère un peu là), mais réalisée dans les trajets habituels, les bâtiments familiers et les lieux parcourus au quotidien.
Le constat s’est imposé rapidement et sans aucun effort particulier : Swisscom passait quasi systématiquement mieux, plus vite et plus loin dans les bâtiments. Les débits étaient plus réguliers et les transitions entre cellules semblaient plus fluides, en particulier dans les zones denses en bâtiments. En gros, les différences devenaient flagrantes dès qu’il fallait se rendre dans un bâtiment.

Sunrise perdait parfois complètement le réseau dans certains intérieurs, alors que Swisscom affichait encore deux ou trois barres. La différence était suffisamment nette pour que l’abonnement Sunrise ne reste pas dans mon téléphone malheureusement. Je l’ai conservé quelques semaines pour vérifier de temps en temps si les choses avaient changé…
Durant mon test, j’ai découvert un élément amusant et savoureux : à l’époque, je n’avais pas la 5G chez Swisscom (Wingo), mais je l’avais chez Sunrise (Digitec). Étonnamment, la 4G de Swisscom surpassait systématiquement la 5G de Sunrise en termes de performances :


À la fin, le test n’a fait que confirmer ce que beaucoup de retours utilisateurs suggèrent depuis longtemps : sur les zones denses avec un des environnements complexes (immeubles, gares, centres commerciaux) et dans les régions montagneuses, Swisscom garde une avance stable et visible. C’est ça que Connect mesure partiellement, mais que l’expérience quotidienne le confirme nettement.
Antennes, fréquences et densité : une explication plus structurelle
Pour comprendre ces différences, difficile d’éviter le sujet des antennes. La qualité d’un réseau mobile dépend largement de sa densité d’infrastructures, de la diversité des fréquences utilisées, et de leur configuration. Depuis quelques mois le site CarteAntennesSuisse.ch nous aide à bien mieux comprendre tout ça que la carte officielle de confédération : 22473 antennes Swisscom, 11010 antennes Sunrise et 10993 antennes Salt sont en service au moment où j’écris ces lignes.
La Suisse est l’un des pays les plus denses en antennes 4G et 5G, mais les opérateurs n’avancent pas au même rythme ni avec les mêmes priorités. Swisscom a historiquement un réseau très dense, construit sur des décennies, avec un maillage serré, y compris dans des zones moins rentables. Sunrise a une bonne couverture globale, mais la densité est parfois plus variable dans certains environnements urbains. Salt, de son côté, dispose d’un réseau performant là où il a investi fortement, mais affiche parfois des trous plus visibles dans les zones complexes…
La densité reste le facteur déterminant dans les environnements difficiles. Une antenne plus proche signifie une meilleure pénétration dans les bâtiments, une latence plus faible, une capacité accrue et un débit plus stable. À cela s’ajoutent des fréquences basses (700, 900 MHz) très recherchées pour leur portée, et des fréquences plus hautes (2100, 3500 MHz) pour leur capacité. Les opérateurs n’ont pas exactement les mêmes lots, les mêmes priorités, ni les mêmes stratégies de déploiement. Encore une fois, ce graphique emprunté à CarteAntenneSuisse.ch montre clairement la situation en mai 2025 (⚠️ une antenne peut avoir plusieurs fréquences, ce qui explique la différence des chiffres avec le nombre total d’antennes) :

Ce qui n’est jamais mesuré par Connect, ou du moins pas de manière exhaustive, ce sont les endroits où la densité joue un rôle crucial : sous-sols, bâtiments industriels, zones mixtes, petites localités ou lieux de passage hors des trajets “optimisés”. Or c’est précisément dans ces cas-là que l’utilisateur moyen perçoit les vraies différences et s’agace de la qualité du réseau.
Bref, les graphiques d’antennes montrent une réalité bien différente que les tests Connect : la performance dépend surtout de la proximité d’un site mobile. Un élément pourtant rarement évoqué dans les communiqués de presse enjoués des opérateurs.
L’utilité, mais aussi les limites, de ces tests “officiels”
Les tests Connect, Bilanz et consorts ne sont pas des illusions marketing. Ils apportent une information utile, structurée, comparable d’année en année. Ils permettent de mesurer la progression globale des réseaux suisses, de vérifier que les opérateurs maintiennent leurs infrastructures, et d’assurer une certaine transparence sur les évolutions technologiques.
Cependant, la vraie qualité d’un réseau ne se résume pas à un score sur 1000 et que la méthode de calcul doit se transformer et devenir bien plus sévère à mon avis. À quoi bon montrer des chiffres ou tout le monde à 100%, autant trouver une nouvelle échelle pour mettre en exergue les différences ! Bref, cela ne se résume pas non plus à un classement annuel ou à une déclaration de performance exceptionnelle. Les tests mesurent des environnements contrôlés, mais la vie quotidienne ne l’est pas ! Un immeuble mal couvert reste mal couvert, même si un opérateur a obtenu la note “Excellent”. Une vallée difficile restera une vallée difficile, même si le réseau a progressé de six points sur un an. Un sous-sol de bureau reste un monde hostile pour les ondes, quelles que soient les victoires dans les magazines spécialisés…
Bref, ces tests sont utiles, mais incomplets. Ils indiquent une tendance, mais pas la réalité vécue dans le détail…
En conclusion : peut-on vraiment tester la Suisse ?
La Suisse est un terrain de jeu impossible pour un test unique. Montagne, tunnels, vallées encaissées, zones industrielles, immeubles blindés, villages isolés, densité urbaine élevée… aucun protocole standardisé ne peut couvrir tout cela. Il faudrait presque une équipe d’explorateurs des télécoms, un organisme indépendant, sans sponsor, sans protocole figé, capable d’aller là où les opérateurs n’iraient jamais organiser une conférence de presse.
En attendant, Connect continuera probablement d’attribuer des scores élevés, chacun se félicitera, et la Suisse restera fière de ses réseaux… ce qui, finalement, n’est pas totalement injustifié qu’on soit d’accord. Mais simplement, il faut garder en tête que les classements racontent une histoire partielle. L’expérience du terrain, elle, raconte toujours la suite du chapitre. Certaines zones sont excellentes, d’autres moins, et aucune médaille ne pourra jamais réellement résumer cette diversité…
Au fait… cet article a été co-écrit avec une intelligence artificielle ! Si vous ne l’aviez pas remarqué, c’est que le prompt maison a bien fait son boulot. La démarche est expliquée dans cet article dédié 😊.

par 