Comment transférer les SMS d'alerte serveur vers l'email de votre équipe IT
3 h 17 du matin. Votre onduleur envoie un SMS : « Coupure de courant détectée — bascule sur batterie. Autonomie estimée : 22 minutes. »
Ce SMS arrive sur le téléphone de Marc. Marc est le CTO. Marc dort aussi profondément, et son téléphone est en mode Ne pas déranger.
À 3 h 39, la batterie de l'onduleur s'épuise. Le serveur tombe. Votre application SaaS — celle dont dépendent 400 clients — passe hors ligne.
À 7 h 12, Marc se réveille. Voit le SMS. Le serveur est down depuis presque 4 heures. Les clients sont furieux. Les dashboards de monitoring affichent un trou. Les tickets de support s'accumulent.
L'ironie : si cette même alerte avait été envoyée à une boîte email partagée avec les notifications activées pour l'ingénieur d'astreinte, quelqu'un aurait fait un SSH, déclenché un arrêt propre ou basculé sur le backup, et personne n'aurait rien remarqué.
Le problème : des alertes critiques envoyées sur un seul téléphone
Malgré des stacks de monitoring sophistiquées, un nombre surprenant d'alertes d'infrastructure arrivent encore par SMS :
| Système | Ce qu'il envoie par SMS |
|---|---|
| Onduleur (APC, CyberPower, Eaton) | Coupure de courant, batterie faible, alerte température, capacité de charge |
| Cloudflare | Alertes DDoS, origine injoignable, certificat expirant, déclenchements WAF |
| AWS | Alertes budget, changements d'état EC2, alarmes CloudWatch |
| Google Cloud | Alertes facturation, notifications d'incidents |
| Datadog / PagerDuty | Escalation de secours (quand push + email échouent) |
| FAI (Orange Pro, SFR Business) | Notifications de panne, fenêtres de maintenance |
| Sécurité physique | Déclenchements d'alarme, violations d'accès, détection de mouvement |
| CVC / Environnement | Température salle serveur, alertes humidité |
Ces systèmes envoient souvent du SMS parce que c'est le canal de dernier recours le plus fiable. Quand votre serveur email est en panne, vous ne pouvez pas recevoir d'alertes email sur la panne de votre serveur email. Le SMS contourne entièrement cette dépendance.
Mais quand ces SMS arrivent sur le téléphone d'une seule personne, vous avez créé un nouveau point de défaillance unique : l'attention de cette personne.
L'architecture : SMS → Boîte IT partagée → Ingénieur d'astreinte
SMS Onduleur/Cloudflare/AWS → Téléphone dir. technique → SMS to Email Forwarder
↓
[email protected]
↓
┌─────────────┼───────────────┐
↓ ↓ ↓
Ingénieur Équipe IT PagerDuty
d'astreinte Slack (escalation
(primaire) #alertes de secours)
channel
Étape 1 : Créer la boîte d'alertes
Créez une boîte dédiée :
[email protected][email protected]- Ou Gmail partagé :
[email protected]
Configurez-la en haute priorité :
- Notifications push activées
- Contournement du mode Ne pas déranger pour cet expéditeur (configurez-le comme contact VIP dans Mail iOS)
- Connectée à Slack via l'intégration email-vers-canal (commande
/emaildans Slack)
Étape 2 : Installer SMS to Email Forwarder
Téléchargez SMS to Email Forwarder sur l'iPhone qui reçoit les SMS d'alerte d'infrastructure.
Configuration :
- Saisissez
[email protected] - Complétez la configuration des Raccourcis — 2 minutes
- Tous les SMS entrants sont désormais transférés vers la boîte partagée
Étape 3 : Brancher le routage
Pour les équipes avec rotations d'astreinte, ajoutez le routage email :
Routage Google Workspace :
- Transférez
[email protected]vers la personne actuellement d'astreinte - Mettez à jour la règle de transfert chaque semaine lors de la rotation
Intégration PagerDuty :
- Transférez les alertes vers l'adresse d'ingestion email de PagerDuty
- PagerDuty gère l'escalation, l'acquittement et la rotation automatiquement
Intégration Slack :
- Transférez vers une adresse email de canal Slack (
#it-alertes→ possède un email unique) - Toute l'équipe voit les alertes en temps réel avec des discussions en fil
Scénarios concrets
Scénario 1 : La coupure de courant à 3 h du matin
Sans transfert :
- L'onduleur envoie un SMS à Marc à 3 h 17
- Le téléphone de Marc est en mode NPD
- Le serveur meurt à 3 h 39
- 4 heures de panne, clients furieux, violation de SLA
Avec transfert :
- L'onduleur envoie un SMS à 3 h 17 → transféré vers
alertes@ - L'ingénieure d'astreinte Priya a les notifications push sur son téléphone (pas en NPD pour cette boîte)
- Priya fait un SSH à 3 h 20, lance un arrêt propre, bascule le trafic vers le backup
- Temps d'arrêt total : 8 minutes. Aucun client ne s'en aperçoit.
Scénario 2 : Le DDoS Cloudflare aux heures de pointe
Cloudflare détecte un pic de trafic anormal et envoie un SMS : « Votre zone sms2email.app fait l'objet d'une potentielle attaque DDoS. »
Sans transfert : Le fondateur le voit 45 minutes plus tard pendant le déjeuner. Le site a été lent pour les clients payants.
Avec transfert : L'ingénieur DevOps voit l'alerte en 60 secondes. Il active le mode « Sous attaque » dans Cloudflare, ajuste les règles de limitation de débit. Attaque atténuée avant le moindre impact client.
Scénario 3 : L'alerte budget AWS
AWS envoie : « Votre compte a dépassé 80 % de votre budget mensuel (800 €/1 000 €). »
Sans transfert : Le fondateur le voit vendredi. Lundi, la facture est déjà à 1 400 € — une instance EC2 oubliée qui tourne des workloads GPU.
Avec transfert : Finance + DevOps voient tous les deux l'alerte. DevOps identifie l'instance fautive en une heure. 400 € économisés.
Scénario 4 : L'alarme de sécurité
Votre système d'alarme de bureau envoie un SMS quand il se déclenche en dehors des heures : « Mouvement détecté en salle serveur à 23 h 47. »
Sans transfert : Le SMS arrive sur le téléphone de la responsable administrative. Elle dort. Personne ne vérifie jusqu'au matin.
Avec transfert : L'email de l'équipe sécurité reçoit l'alerte. L'agent de sécurité de garde vérifie les caméras à distance, confirme que c'est l'équipe de ménage (ou escalade si ce n'est pas le cas).
Triage des alertes avec les libellés email
Transformez votre boîte en un dashboard de monitoring léger :
| Filtre Gmail | Libellé | Action |
|---|---|---|
| Le corps contient « coupure courant » OU « batterie » OU « onduleur » | 🔴 ALIMENTATION | Étoile + notification push |
| Le corps contient « down » OU « injoignable » OU « hors ligne » | 🔴 DOWN | Étoile + notification push |
| Le corps contient « certificat » OU « SSL » | 🟡 CERTIF | Pas de push, revue quotidienne |
| Le corps contient « budget » OU « facturation » OU « dépassé » | 🟡 FACTURATION | Transférer vers finance@ |
| Le corps contient « température » OU « humidité » | 🟡 ENVIRONNEMENT | Revue du matin |
| Le corps contient « maintenance » OU « planifié » | ⚪ INFO | Archiver automatiquement |
Matrice de sévérité des alertes
| Sévérité | Temps de réponse | Exemple |
|---|---|---|
| P0 — Service down | Immédiat (< 5 min) | Serveur hors ligne, coupure courant, DDoS |
| P1 — Dégradé | < 30 minutes | CPU élevé, disque à 90 %, SSL expire dans 7 jours |
| P2 — Avertissement | < 4 heures | Budget à 80 %, maintenance planifiée |
| P3 — Informatif | Jour ouvré suivant | Résumé mensuel, mise à jour firmware disponible |
Le transfert SMS dans votre stack monitoring existante
Le transfert SMS ne remplace pas Datadog, PagerDuty ou Grafana. Il comble le vide que ces outils ne couvrent pas :
| Outil de monitoring | Ce qu'il fait bien | Ce que le transfert SMS apporte |
|---|---|---|
| Datadog | Métriques applicatives, APM | Capture les alertes matérielles/FAI que Datadog ne peut pas voir |
| PagerDuty | Rotation d'astreinte, escalation | Ingère les alertes SMS-only dans le workflow PagerDuty |
| Grafana | Visualisation dashboard | Fournit une source de données pour les alertes physiques (onduleur, CVC) |
| Slack | Communication d'équipe | Fait le pont entre les systèmes SMS-only et la conversation de votre équipe |
L'insight clé : Beaucoup de composants d'infrastructure critiques — onduleurs, alarmes de bâtiment, notifications FAI — ne communiquent que par SMS. Ils ont été conçus avant l'existence de Slack. Le transfert SMS est le pont qui intègre ces systèmes de notification hérités dans votre stack de monitoring moderne.
Erreurs fréquentes
| Erreur | Solution |
|---|---|
| Envoyer toutes les alertes à tout le monde | Routez par sévérité. P0 vers l'astreinte, P2-P3 vers un canal de revue. |
| Utiliser un email personnel | Utilisez une boîte partagée, liée au rôle. Les personnes changent ; la boîte reste. |
| Ignorer les SMS du FAI | Les SMS de panne FAI sont le premier indicateur que votre connectivité défaille. |
| Ne pas tester la chaîne | Envoyez un SMS de test chaque mois. Confirmez que la personne d'astreinte reçoit bien la notification push. |
| Utiliser le SMS comme SEUL canal d'alerte | Le transfert SMS complète votre stack, il ne la remplace pas. Ayez toujours au moins 2 canaux d'alerte. |
Cinq minutes de configuration préviennent votre prochaine panne
L'infrastructure ne tombe pas pendant les heures de bureau. Les serveurs plantent à 3 h du matin. Le courant saute pendant les jours fériés. Les certificats SSL expirent le week-end.
L'ingénieur capable de répondre n'est pas toujours celui dont le numéro est enregistré dans la config de l'onduleur. Le transfert SMS garantit que chaque alerte critique atteint la personne qui peut agir — quel que soit le numéro enregistré dans le système.
Pour d'autres configurations IT : archivage SMS pour la conformité AMF/RGPD | partager vos codes 2FA avec votre équipe
Ne ratez plus jamais une alerte serveur.
Téléchargez SMS to Email Forwarder — intégrez vos alertes SMS d'infrastructure dans votre stack de monitoring.
Prêt à commencer ?
Configurez le transfert automatique de SMS en 2 minutes. Plan gratuit — sans carte bancaire.
Télécharger sur l'App Store