Produit et éthique

Concevoir une IA pour le deuil, pas pour le growth hacking

Pourquoi EchoVault est conçu pour être lent, doux et centré sur le consentement — et ce qui change quand on crée une IA pour de vraies familles plutôt que pour des courbes d’engagement.

Si tu as passé un peu de temps dans la tech ces dix dernières années, tu as probablement vu le même playbook recyclé encore et encore. Livrer vite. Tout instrumenter. Tester le texte de chaque bouton. Optimiser l’engagement, la rétention, la recommandation. Trouver le chemin le plus court entre la curiosité et l’habitude. Si quelqu’un est encore sur la page après trente secondes, trouver comment le garder soixante.

Il y a une sorte de montée d’adrénaline dans ce travail. On regarde des dashboards et on voit les chiffres monter. On ajuste un titre et la courbe bondit en haut à droite, et tout le monde applaudit. On fait des expériences sur des milliers d’utilisateurs et on parle avec assurance de cohorts, de funnels et de churn.

Mais le deuil se moque des funnels.

Le deuil arrive un mardi après‑midi, quand une chanson passe au supermarché et que tu dois t’arrêter une minute parce que ta poitrine fait mal. Il arrive aux anniversaires que tu oublies jusqu’à ce qu’ils te frappent en plein milieu de la journée. Il arrive quand tu vas appeler quelqu’un et que tu réalises que tu ne peux pas.

Si tu veux construire une technologie qui touche de près ou de loin au deuil — une technologie qui invite les gens à enregistrer et revisiter les histoires de ceux qu’ils aiment — tu ne peux pas simplement copier le playbook du growth hacking. Pas si tu veux pouvoir regarder les familles que tu sers dans les yeux. Pas si tu veux bien dormir.

Il faut concevoir autrement.

Concevoir une IA pour le deuil commence par un aveu inconfortable. C’est un territoire fragile. Tu entres dans des moments dont les gens se souviendront toute leur vie. Tu leur demandes d’apporter leur vulnérabilité, leurs peurs, leur amour, leurs regrets. Tu n’as pas le droit de traiter ça comme du contenu.

Quand quelqu’un s’assoit pour enregistrer une session avec EchoVault, il ne pense pas à l’onboarding ou à l’activation. Il pense : j’espère ne pas dire la mauvaise chose. J’espère que ce ne sera pas trop lourd. J’espère que ce ne sera pas bizarre pour maman. Il se dit peut‑être : je ne suis pas prêt, et en même temps je ne peux pas me permettre de ne pas l’être.

Un produit orienté croissance répondrait par la pression. Fais ta première session aujourd’hui. Tu es à quatre‑vingt pour cent de capturer son héritage, plus qu’un pas. Il enverrait rappels, nudges et prompts jusqu’à ce que les gens obéissent ou décrochent.

Une expérience pensée avec le deuil en tête essaie quelque chose de plus doux. Elle fait de la place à l’ambivalence. Elle dit : c’est ok de respirer. C’est ok de mettre en pause et de revenir. C’est ok si tu ne sais pas par où commencer.

Au lieu de demander : comment en obtenir plus, elle demande : quel est le minimum qui aurait du sens maintenant. Peut‑être dix questions, pas deux cents. Peut‑être une histoire sur la façon dont ils ont rencontré leur partenaire, pas une biographie complète. Peut‑être juste leur faire dire leur nom, où ils ont grandi, et une petite chose dont ils sont fiers et que personne ne sait.

Construire une IA autour du deuil, c’est aussi mesurer autre chose.

On arrête de se vanter du temps passé dans l’app comme si plus était toujours mieux. Parfois, le plus respectueux est que la technologie disparaisse vite : donner juste assez de structure pour avoir la conversation, puis s’effacer pour laisser les gens être ensemble avec ce qui émerge.

On arrête de traiter le partage comme un bien universel. Au lieu de demander combien de personnes ont partagé, on demande qui devait voir ça et qui avait la permission. On construit des contrôles qui sonnent comme la vraie vie : c’est juste pour moi, c’est pour notre famille proche, ça pourra être partagé plus largement plus tard si on décide que c’est juste. Ces bascules ne sont pas des flags en base de données : ce sont des promesses.

Et on trace des limites claires pour l’IA elle‑même.

On résiste à la tentation de dramatiser ou de sensationnaliser des histoires juste pour être intéressant. On ne la laisse pas improviser de faux souvenirs ni combler les trous avec des suppositions confiantes. On l’ancre dans ce qui a réellement été dit et enregistré. On la laisse dire : je ne sais pas, plutôt que d’inventer une réponse qui semble vraie et ne l’est pas.

On laisse l’Echo refléter chaleur et curiosité sans jouer au médium. On le laisse poser des questions de relance qui approfondissent une histoire, pas qui entraînent quelqu’un vers une zone douloureuse à laquelle il n’a pas consenti. On laisse les gens définir des sujets hors limites, et on les respecte.

Ce type de conception est plus lent. Il suppose de dire non à des fonctionnalités qui feraient grimper certains indicateurs, mais laisseraient un goût amer à ceux qu’on prétend servir. Il suppose d’accepter des arbitrages inconfortables. Il suppose d’admettre que les chiffres faciles à tracer ne sont pas toujours ceux qui comptent le plus.

Comment mesurer si un produit a bien accompagné le deuil de quelqu’un.

On l’entend dans la façon dont il en parle après. On avait la permission de s’arrêter quand on en avait besoin. Ça n’a pas essayé de nous pousser là où on n’était pas prêts. Ça semblait là pour nous aider à écouter, pas pour « performer ».

On le voit dans les histoires que les gens racontent. Pas : j’ai passé six heures dans cette app la semaine dernière, mais : on a enfin eu la conversation qu’on évitait depuis des années, et c’était plus doux qu’on ne l’imaginait. Pas : je suis obsédé par cet outil, mais : je suis content qu’il ait été là quand il le fallait, et je n’y pense pas quand il ne le faut pas.

Concevoir une IA pour le deuil, ce n’est pas construire une technologie triste. C’est construire une technologie honnête. Honnête sur ce qu’elle peut et ne peut pas faire. Honnête sur le fait qu’aucun Echo numérique ne remplacera une personne. Honnête sur les limites de la mémoire et sur la façon dont on peut soutenir — et non exploiter — ceux qui vivent une perte ou l’anticipent.

La croissance compte, au sens où l’on veut atteindre les familles qui en ont besoin. Mais la croissance n’est pas le but. Le but est de traiter chaque session, chaque enregistrement, chaque nuit silencieuse où quelqu’un se connecte parce qu’une voix lui manque, comme quelque chose de sacré.

On ne peut pas « tester » ça avec des graphiques seulement. Il faut y arriver par le care. Il faut parler aux familles. S’asseoir avec leurs histoires. Être prêt à laisser de l’argent sur la table quand une fonctionnalité franchirait une ligne plus importante que le revenu.

La récompense est subtile et importante. On construit quelque chose dont les gens parlent non pas comme d’une app, mais comme d’une partie de leur histoire familiale. Et quand quelqu’un ouvre EchoVault un jour difficile, il entre dans une expérience conçue pour sa dignité, pas pour ton dashboard.

Si tu envisages d’enregistrer quelqu’un que tu aimes et que tu veux que le processus soit aussi soigneux, tu peux voir comment EchoVault fonctionne ou regarder les offres pour trouver un point de départ.