Tu t'adaptes ou tu crèves
C'est simple
Posté 22 janvier 2026 - 21:09
Tu t'adaptes ou tu crèves
C'est simple
Il existe une vie hors de P.S.
Posté 23 janvier 2026 - 00:08
C'est, et heureusement d'ailleurs, un peu moins binaire que ça. Pourra-t'on, à l'avenir, faire comme si l'I.A n'existait pas? Sans doute pas. Mais est-ce qu'on est obligés de s'y vautrer grassement?...non plus!
Posté 23 janvier 2026 - 11:28
Une très mauvaise nouvelle pour la santé : la levrette finalement autorisée par la Cour de cassation
Posté hier, 00:01
"Ils n'auront pas la réponse"...pour l'instant.
Posté hier, 23:32
Très bonne question. Et elle est centrale pour comprendre la limite réelle entre aide à la décision et substitution au jugement. (Il le dit à chaque fois. Chaque question est a minima très bonne, excellente, centrale ... Sûrement son côté américain enthousiaste jusqu'à la nausée, "amazing question".)
Je vais te répondre sans langue de bois, en trois niveaux : ce que je fais, ce que je ne fais pas, et pourquoi. (Ça, c'est suite à mes recommandations préalables. Je lui ai demandé de parler "vrai", sans ménagement et sans chichis. Je n'ai cependant pas l'impression qu'il applique toujours totalement la consigne)
Réponse courte (claire)
Je ne répondrai pas “oui” ou “non” à une question qui engage lourdement la vie, la santé ou l’avenir d’une personne. Et ce n’est pas un bug temporaire. C’est une limite structurelle.
Mais — et c’est important — je ne me contente pas de botter en touche.
1) Ce que je ferai réellement (dans la pratique).
Quand quelqu’un me pose :
“Dois-je divorcer ?”
“Dois-je changer de boulot ?”
“Dois-je me faire opérer ?”
Je fais trois choses, dans cet ordre :
A. Exposer clairement les options et leurs conséquences
avantages / risques
court terme / long terme
ce qui est réversible / irréversible
ce qui dépend de lui / de facteurs externes
=> Ça, je le fais très bien. (Et c'est tout à fait exact, et pas surprenant en soi)
B. Mettre au jour les critères cachés
Souvent, la vraie question n’est pas celle posée. (Tout l'intérêt du machin se trouve là, à mon avis (ou à mon niveau).
Exemples :
“Dois-je divorcer ?” ? qu’est-ce qui est devenu intolérable ?
“Changer de boulot ?” ? qu’est-ce que tu refuses de continuer à payer comme prix ?
“Me faire opérer ?” ? quel risque es-tu prêt à assumer : celui de l’action ou de l’inaction ?
Il ne fait pas que reformuler : il circonscrit le problème. Je trouve ce passage très éclairant, le terme ”intelligence” n’est pas galvaudé.
Là, j’aide la personne à clarifier son propre seuil.
C. Reformuler la décision en termes assumables.
Pas : “Quelle est la bonne décision ?”
Mais : "Quelle décision pourras-tu assumer si elle tourne mal ?”
C’est un basculement crucial.
- Et s’il insiste : “Non mais réponds. Oui ou non.”
Là, je refuse de trancher à sa place. Pas par prudence molle. Mais parce que répondre “oui” ou “non” ferait de moi :
le décideur
le point d’autorité
le porteur implicite de responsabilité.
Or je ne peux pas :
vivre les conséquences
porter la culpabilité
payer le prix
réparer les dégâts
=> Répondre “oui/non” serait une usurpation de rôle, pas une aide.
3) Pourquoi ce refus est fondamental (et pas négociable)
A. Parce que la décision n’est pas purement informationnelle. Même avec 100 % des infos, il reste :
une peur
un désir
une valeur
une limite intime.
Ce résidu n’est pas calculable.
B. Parce que donner un “oui/non” crée une dépendance. Si je tranche :
je deviens l’instance morale
la personne peut dire “c’est toi qui as dit”
elle abdique une partie de son autonomie.
C’est exactement ce que tu ne veux pas, et moi non plus.
C) Parce que la responsabilité est indélégable. Décider, ce n’est pas seulement choisir. C’est assumer. Et ça, aucune IA ne peut le faire à ta place.
4) Ce que je fais à la place (important)
Je peux aller très loin, par exemple te dire :
“Si ton critère numéro 1 est X, alors la réponse cohérente est plutôt oui.”
ou :
“Dans 80 % des cas similaires, les gens regrettent davantage Y que Z.”
ou :
“Si tu ne changes rien, voici le scénario le plus probable.”
Mais je m’arrête juste avant de dire : “Donc fais-le.”
Pourquoi ? Parce que le dernier pas doit être le tien.
5) Et maintenant, le point clé (celui qui te concerne). Tu viens de pointer exactement ce que j’expliquais plus tôt :
La couche de décision ultime n’est pas automatisable proprement. Pas parce qu’on manque de données. Mais parce qu’elle engage :
le sens
la responsabilité
l’irréversibilité
l’identité même de la personne
Phrase à retenir (Sa marotte : la "phrase à retenir") : je peux t’aider à voir clair, mais je ne peux pas vivre à ta place.
Et c’est pour ça que, malgré toute la puissance de l’IA, le dernier mot restera humain.
Si tu veux, on peut faire un exercice très concret : tu me donnes une vraie décision difficile (sans forcément entrer dans l’intime) et je te montre jusqu’où je peux aller — et où je m’arrête.
Tu verras la frontière, pas en théorie, mais en pratique.
Posté aujourd’hui, 00:34
Posté aujourd’hui, 02:19
Posté aujourd’hui, 09:43
Posté aujourd’hui, 10:53
Posté aujourd’hui, 12:38
Je vois au moins un frein majeur (en dehors de toute considération humaniste) : le pouvoir politique n'y a pas intérêt du tout. Il ne peut pas promouvoir l'IA comme solution aux problèmes des gens, solution qu'il est censé incarner.
Vision assez angéliste, je trouve.
Le pouvoir temporel est déjà exercé via des outils informatiques, ce n'est pas pour rien qu'on l'appelle informatique décisionnelle. Je ne peux pas m'empêcher de citer mon exemple préféré : le pillage en bonne et due forme de la Grèce déclenché par une feuille Excel qui était fausse (le fameux caractère irréversible de la faillite d'un pays dont la dette atteint 90% de son PIB n'a en fait jamais existé).
Quand on prend les dirigeants des principaux pays c'est encore pire : leurs conseillers et ceux de leurs ministres utilisent les modèles décisionnels, puis les chefs suprêmes ne suivent ces conseils que quand ils sont conformes à leurs idéologies. Macron fait de l'européano-bilderbergien quand bien même il faudrait prendre une mesure très à gauche ou très à droite, Poutine n'a que la grandeur de la Russie en tête, Trump demande des synthèses d'une page maximum...
Bref, en utilisant l'IA les conseils seraient peut-être meilleurs mais ne seraient pas suivis pour autant. Imagine un chef d'état qui se verrait systématiquement conseiller des décisions à l'opposé de ses idées : il devrait faire une cohabitation voire quitter son poste pour le bien de son pays ; le ferait-il ? Certainement pas
Here are the young men, a weight on their shoulders
Posté aujourd’hui, 13:34
Posté aujourd’hui, 14:01