Retour aux outils

Extracteur de domaines depuis URLs

Collez une liste d’URL (avec ou sans https://) et récupérez les noms de domaine. Options : retirer www, conserver/supprimer les sous-domaines, dédupliquer, trier, compter. Outil 100 % local.

Utilitaires · URL 100 % local · aucune donnée envoyée

Extraire des noms de domaine à partir d’URLs (copier-coller)

Vous avez une liste d’URLs et vous voulez récupérer uniquement le nom de domaine ? Cet outil extrait automatiquement le domaine (host) de chaque URL : pratique pour nettoyer des exports, faire une liste blanche, analyser des backlinks, ou regrouper des sources par site.

Vous pouvez retirer le préfixe www., choisir de conserver les sous-domaines (ex : blog.exemple.com) ou tenter de récupérer le domaine racine (ex : exemple.com) via une heuristique. Ensuite, l’outil déduplique, trie et peut compter les occurrences. Tout fonctionne 100 % en local dans votre navigateur.

Questions fréquentes (FAQ)

L’outil gère-t-il les URLs sans “https://” ?

Oui. Si une ligne ressemble à un domaine/URL sans schéma, l’outil ajoute https:// pour extraire le domaine.

“Domaine racine” : est-ce toujours exact ?

Sans liste officielle des suffixes publics (Public Suffix List), la suppression des sous-domaines repose sur une heuristique. Pour des cas complexes, conservez les sous-domaines.

Puis-je exporter la liste en CSV ?

Oui : choisissez CSV, puis le séparateur (souvent ; pour Excel FR). Vous pouvez aussi ajouter un comptage.

Mes URLs sont-elles envoyées sur un serveur ?

Non. Tout est 100 % local.