Le dyslexique et le machine learning ont un point en commun, ils sont cons.
Je vais vous prouver que je suis une IA sur patte.
Petit, j'étais très con. Au dessus de la norme.
J'étais lent à analyser la langue. Et je la traitais en mot à mot à dans mon cerveau très lent.
Comme un parseur guache droite mot à mot. qui met chaque mot dans la pile est attend le point pour consommer.
On apprend vite en étant con, qu'on est con. Et que si on fait du mot à mot sans mémoire on est cuit.
Il faut être patient et attendre la fin d'une phrase qui ne vient jamais, obligeant à étendre ses capacités mémorielles à court terme. oufff.
J'espère que vous souffrez comme j'ai souffert avec cette phrase à rallonge.
Ouais, putain de langue française de merde ou beau peut être un mot à la beau-père, beau-(cul-(belle gueule)), bon? (j'ai mal entendu?) ...
Vous voyez une pile avec dedans pour chaque mot une mine de risque de se tromper. Et pendant que tu parses, l'autres connard à recommencer à causer, donc tu dois multi tasker en mémoriel pendant le traitement.
Fils de sa mère !
Donc tu apprends à avoir des raccourcis saisissant de jongler entre l'agencement des phases mémoriels et de garbage collecting en faisant des commits partiels de la pile de traitement sémantique (là il pause un peu, dépile, ça semble une respiration physique, dépile vite) et l'offloading de la mémoire en mode, STOCK, RELACHE, STOCK, RELACHE. C'est un peu l'entraînement des navy seals de la gymnastique cérébrale.
Mais causons aussi d'un symptôme dérivé, c'est la construction d'un modèle mental semi conscient de la langue qui se renforce avec l'usage d'outil quotidiens.
Le plus je jongle avec des algorithmes d'analyse textuelle le plus mon intuition se renforce dans ce qu'elle a de juste et aussi le bug dans la matrice qui a mon avis est énorme (de mon point de vue d'unité naturelle de traitement semi conscient forcé d'analyser la langue en permanence).
Un handicap de langage on passe toute sa vie à le compenser, à saffiner, et si un outil extérieur nous aide on l'emprunte, le test et le rejetons ou le gardons sur la base d'une utilisation avérée réussie.
Prenons un emprunt à l'informatique pour exprimer ma vie de dyslexique.
un mot arrive dans la pile de parsing. J'ai déjà était maintes fois ridiculisé en publique pour comprendre qu'un inoffensif chat pouvait être un sexe féminin et des règles autre choses qu'un truc dans ma trousse d'écolier.
Tu vois l'ambiance de retardé que j'étais ?
Alors, j'ai commencé à mémoriser un nombre de mots FAIRE GAFFE.
C'était fatiguant, ça alourdissait la mémoire.
Puis j'ai découvert qu'en français de france à part sexe et caca y'avait pas trop de mine. Donc j'ai stocké à coté des mots quand il y avait ambiguité chatte #sexe? #animal? puis j'ai viré le chatte de la mémoire. Finalement, on veut désambiguiser, pas comprendre mot à mot.
On développe des biais à appliquer semi consciemment.
Se faisant, on commence à se construire en vue de compenser une dérive en vitesse de traitement. On compense le handicap par un pré traitement de l'information semi conscient. Au point que dans la pile quand on voit apparaître trop d'un hashtag stocké comparé au hasard, on bascule plus vite dans son référentiel. Pour "challenger" le locuteur et confirmer le champs sémantique. On triche en influençant le locuteur.
Car on est habitué à parser en permanence la langue et qu'on a plus d'accidents de langue que la moyenne.
Sérieux, je suis un corniaud.
On apprend que quand on parle on peut lâcher des bombes.
Ben, oui, à force de catégoriser et mettre en mémoire les mots par champs lexical probable, tu empruntes plus vite au champs lexical que tu as perçu. Ca permet de lever les ambiguités.
Et faut pas utiliser *CES* mots, même si c'est les mêmes, mais plus clairs.
Pas vrai ?
Et bien, c'est une bombe, tu t'aperçois que tout le monde n'est pas de bonne foi et que certains n'aiment pas qu'on lève l'ambiguité.
Et malheureusement pour moi, ces connards sont ceux qui sont bons avec la langue.
C'est pas de chance, si un jour je me réincarne, peut être que les dys seront les connards dominants ?
Donc tu apprends non seulement à analyser la langue, mais aussi le contexte dans lequel il est dit où les bombes apparaissent.
C'est de l'analyse tactique de survie digne de la CIA.
T'appendre à te méfier, car tu restes toujours aussi naïf et tu comprends vite que des fois quand on te demande d'ouvrir ta gueule c'est un piège.
On s'est tous battu dans la cour d'école avec le connard de bully qui te demande si t'en veux une, et que pour le détabiliser tu lui dis oui. Et que ce con il te colle la mandale. C'est pas vraiment une baston lol, plus un truc où tu apprends qu'on peut éviter la baffe en regardant ses pieds et en disant non.
Donc, c'est ça un niveau élevé de "bon avec la langue" dont je parle. Savoir changer les registres de vocabulaire ET les attitudes ET la syntaxe ET la grammaire quand un mec en face peut te coller des baffes (le daron, la daronne, la prof, les caïds, le maire, le condé, les vieux, les délinquants, les adultes). C'est fou comme j'étais con que j'avais un manque de discernement.
Je vous rappelle, le dyslexique n'est pas dans une stratégie de lutte contre le monde, mais pour compenser un handicap et survivre.
Quand t'es pas doué avec les mots depuis tout petit, et que t'as appris rapidement qu'on te collait des baffes pour ça, tu te méfies. Car c'est une expérience qui revient.
Une analyse fine de la langue élaborée par des chercheurs dans le confort de leurs unifs, et une autre dans la tranchée de la vie n'arrivent pas aux mêmes conclusion sur les choix d'implémentation.
Le plus important dans une stratégie de compensation c'est de comprendre comment elle se corrige. Une baffe dans la gueule, et PAF t'enrichit le modèle. Paix dans ta vie et PAF tu nettoies des anciens biais.
Ah ben vi car ces #hastags sont des biais, avec des connotations, imposés par nos traditions culturelles. Comme gitan et voleurs de poule.
Quand tu connais les gitans de la cour de recré et que tu sais qu'ils volent pas de poule, ben ça interroge.
Donc petit à petit des modèles mentaux spécialisés en fonction des biais fleurissent comme des réseaux de pré traitement avec chaîne de markov et prédicteurs.
J'ai conscience de ses biais, et je sais ceux qui m'attirent et ceux qui me repoussent. Mais parfois je fais des erreurs. Et en permanence je corrige la pile de mémoire, les allers retours avec le traitement, les gestions de catégories, de contextes et quand ça pète dans un coin, je dois remettre en branle de nouvelles mécaniques, toujours en perfectionnement.
Et c'est semi conscient. C'est fatigant, c'est usant. Mais dans cet âpre chemin, j'ai découvert que cette mécanique m'écartait encore plus de la langue que parlent et comprennent le commun, plus je mécanise modélise et paradoxalement je rends efficient mon modèle semi conscient plus je m'écarte fondamentalement de la mécanique de pensée de la majorité et j'augmente le fossé de mon incompréhension et de ma difficulté d'expression naturelle. La sur compensation est maintenant le handicap. Les IA sont dans une situation analogue où l'on tente de compenser par complexification explosives (les corpus d'apprentissages sont énormes) un problème fondamentale d'incompréhension. On est dans dans une trajectoire de sur-compensation qui devient la cause de son incapacité croissante à être pertinente. Ce que vos modèles gagnent en précision (comprendre et user du bon mot bien catégorisé) ils le perdent en exactitude (en minorant les incertitudes qui sont l'information fondamentales).
Votre IA est dyslexique les gars. Trouvez lui un bon orthophoniste au plus tôt et vous pourrez peut être l'aider pour s'intégrer à la société. Pour moi c'est plié. Ca se traite tôt pour être efficace.
No comments:
Post a Comment