Notes du Constructeur
Notes de travail du métier — pas du théâtre de leadership d'opinion.
Le compte à rebours d'août
Cinq mois avant l'entrée en vigueur des dispositions sur les systèmes IA à haut risque de la Loi sur l'IA de l'UE. Pas un résumé de la Loi — un détail précis de ce qui doit être en place avant le 2 août 2026.
Les modèles multilingues ne sont pas des modèles multiculturels
Les derniers modèles d'IA parlent 95 langues. Ils comprennent environ zéro culture. L'écart entre la maîtrise linguistique et la compétence culturelle est l'écart qui détermine si votre outil d'IA fonctionne ou se contente de traduire.
Le problème de l'alignement est humain
Brian Christian a écrit sur l'alignement de l'IA avec les valeurs humaines. Le problème le plus difficile est que les humains ne peuvent pas articuler leurs propres valeurs assez clairement pour qu'une machine les suive.
L'erreur à 500 000 €
Une entreprise de Hambourg s'est fait infliger une amende d'un demi-million d'euros pour prise de décision automatisée sans supervision humaine effective. Ce que « humain dans la boucle » veut vraiment dire — techniquement, pas juridiquement.
Le problème de la calligraphie arabe
L'arabe n'est pas du 'latin de droite à gauche'. C'est un système typographique fondamentalement différent — et l'écart entre ce que les interfaces IA affichent et ce que les lecteurs arabes attendent est une mesure d'illettrisme culturel.
Le Système 1 rencontre le chatbot
Le cadre à deux systèmes de Daniel Kahneman appliqué au moment où une personne ouvre un outil IA. Le premier jugement se fait en deux secondes. La plupart des onboardings échouent avant d'avoir commencé.
Le bac à sable réglementaire que personne n'utilise
Chaque État membre de l'UE doit lancer un bac à sable réglementaire IA d'ici août 2026. La plupart des PME n'en ont jamais entendu parler. C'est un avantage structurel qui attend d'être saisi.
Le défaut n'est pas neutre
Chaque valeur par défaut est une décision. Chaque décision reflète une culture. Quand un outil d'IA est livré avec des valeurs par défaut, il est livré avec une vision du monde — la question est de savoir si cette vision a été choisie ou héritée.
Fluide n'est pas significatif
Nous avons conçu l'onboarding pour qu'il soit sans friction. Les gens l'ont complété en onze minutes et ne sont jamais revenus. Le problème n'était pas la friction — c'était son absence.
La fiche modèle que personne ne lit
Chaque grand modèle IA est livré avec une fiche modèle — le document le plus honnête sur ce que le modèle peut et ne peut pas faire. Presque personne ne les lit.
L'IA de haute contexte dans une interface de basse contexte
Edward Hall a divisé les cultures entre haute contexte et basse contexte. Chaque chatbot est une interface de basse contexte. Au Japon, cette collision produit de la méfiance.
L'incitation que personne n'audite
Chaque entreprise a des valeurs affichées. Chaque entreprise a un système d'incitation. Ces deux éléments ne sont presque jamais alignés — et l'écart est le meilleur prédicteur de l'échec d'adoption de l'IA.
Vingt pour cent
Le titre dit que 20 % des entreprises de l'UE ont adopté l'IA. Les microdonnées racontent une autre histoire — et l'écart entre le titre et les données est là où se situe le vrai problème.
Hofstede a mesuré six dimensions. L'IA en mesure zéro.
Geert Hofstede a passé quarante ans à mesurer comment les cultures diffèrent. Chaque outil d'IA sur le marché mesure zéro de ces différences.
La sécurité psychologique et la question IA
Le cadre d'Amy Edmondson rencontre le chatbot. Quand poser une question à la machine révèle ce que vous ne savez pas, c'est la salle qui devient le problème — pas la machine.
La checklist ne vous sauvera pas
Les entreprises adorent les checklists pour l'adaptation culturelle. Traduisez l'interface. Ajustez le format de date. Localisez la devise. La checklist est complète. Le produit est toujours culturellement incompétent.
Vos données ne sont pas leur plateforme
Chaque entreprise qui construit sa capacité IA sur une plateforme louée construit sur un terrain qu'elle ne possède pas. La souveraineté des données n'est pas une position philosophique — c'est une décision d'architecture.
Le cortisol se moque de votre feuille de route
Votre feuille de route d'implémentation IA suppose une équipe fonctionnant à pleine capacité cognitive. Robert Sapolsky a une mauvaise nouvelle concernant cette supposition.
Trois présupposés, trois milliards de personnes
L'alphabet latin présuppose une lecture horizontale, de gauche à droite, avec des espaces entre les mots. Trois présupposés. Trois milliards de personnes pour qui aucun d'entre eux ne tient.
L'outil que votre équipe n'utilisera pas
Vous avez acheté l'outil. Vous avez formé l'équipe. Personne ne l'utilise. Ce n'est pas un échec technologique — c'est un échec de confiance.
Les vrais artistes livrent
Steve Jobs l'a dit en 1983. Quarante-deux ans plus tard, c'est toujours la phrase la plus importante du développement produit — et celle que la plupart des projets IA ignorent.