Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

18/10/2014

L'informatique au chevet de la langue

On sait que l’informatique, née aux États-Unis pendant la deuxième guerre mondiale, a sa responsabilité dans la dégradation de la langue française :

§  d’abord parce que tout le vocabulaire, depuis bit jusque delete, batch ou dump, a été importé tel quel dans notre langue ;

§  ensuite parce que les Américains, même lors de la deuxième révolution informatique qu’a été internet dans les années 80, se sont bien gardé de permettre aux langues autres que l’anglais de s’écrire avec leurs caractères diacritiques (à, ç, etc. ; cf. les adresses mél.) ;

§  enfin, parce que nos informaticiens eux-mêmes, se sont montrés pour la plupart peu enclins à écrire dans la langue des Classiques ; ceux qui n’ont jamais lu une notice ou un manuel écrit par un développeur ne peuvent pas percevoir totalement l’ampleur du problème (et encore, quand ils écrivent…) ; n’est pas Bertrand Meyer qui veut…

Cela étant, l’outil informatique existe et il est d’une redoutable efficacité pour manipuler des nombres ou des mots. L’informatique linguistique permet ainsi de mesurer des fréquences dans la langue ; par exemple, combien de mots en « on » redoublent-ils le « n » final ou combien y a-t-il de mots avec « ù » en français ?

 

Je vous avais signalé, dans les chapitres sur la réforme de l’orthographe de 1990, que les Académiciens s’étaient appuyés sur de telles mesures pour proposer certaines régularisations.

Voici des éléments plus précis tirés d’un article de Maurice Gross dans la revue « Pour la science » (n°139 de mai 1989). Son laboratoire de Paris VII a compilé un dictionnaire électronique de 60000 entrées, qui avec les conjugaisons donne plus de 500000 formes du français.

 

« ù » ne s’emploie que dans le mot «  » (et permet de le distinguer de la conjonction « ou ») ; c’est très utile mais cela fait quand même cher (un caractère supplémentaire dans l’alphabet et éventuellement une touche supplémentaire sur nos claviers) pour uniquement un mot ; et c’est moi qui vous le dis !

« à » n’est utilisé que dans sept mots : à, , déjà, deçà, delà, holà et voilà

On écrit cela mais celui-là… ce n’est pas très cohérent, avouons-le.

 

L’accent circonflexe permet de distinguer « du » (contraction de « de le ») et « dû » (du verbe devoir). Comme « due » ne risque pas d’être ambigu, on l’écrit sans accent ; logique. Mais le français n’a pas distingué le substantif le dû et le participe passé dû. Et comme « tu » est également ambigu (« tu ne t’es pas tu »), on aurait pu écrire le participe passé de taire : « tû » ! A contrario, « dûment » et « indûment » ne sont pas ambigus mais prennent l’accent…

 

Les spécialistes de l’informatique linguistique, notant qu’il y a dans une langue naturelle, des dizaines de milliers de mots qui sont ambigus (le mot « raison » a trente acceptions différentes, par exemple), considèrent qu’il n’y avait pas lieu de privilégier quelques cas (à, dû…) dans la masse immense du vocabulaire. Mais c’est l’histoire du français…

 

L’informatique a permis au laboratoire d’évaluer par exemple l’effet de la suppression des voyelles… Pour les mots suffisamment longs, il y a souvent correspondance unique entre le mot et son squelette sans voyelle, ce qui fait qu’il est reconnaissable.

Le laboratoire du CNRS a également étudié la suppression des accents, auxquels nous sommes si attachés dans ce blogue. Que se passerait-il, donc, si nous nous mettions à écrire comme certains avec les majuscules non accentuées ? Sur les 500000 formes répertoriées dans le dictionnaire électronique, il apparaît 50000 ambiguïtés nouvelles (ainsi « mange » et « mangé » deviendraient-ils tous les deux « MANGE »). Certaines ambiguïtés seraient difficiles à lever, d’autres moins : par exemple, « MANGES » (qui représenterait à la fois « manges » et « mangés »), étant obligatoirement accompagné de « tu » ou de « toi », ne donnerait pas trop de difficulté.

Moins radicale, une étude a évalué l’impact d’une réduction des accents à un seul (que l’on écrirait alors « ¯ » ou « ı ») : seules 50 ambiguïtés nouvelles seraient introduites ! C’est peu, reconnaissons-le, mais l’Académie n’a pas osé aller jusque là.

 

Le laboratoire a identifié, par ailleurs, 300 situations dans lesquelles la même graphie se prononce de différentes façons : par exemple, « ti » se prononcent dans cinq verbes comme dans « initier » et dans cinq autres verbes comme « châtier ». Et il existe 44 mots comme « partie » et 57 mots comme « inertie ».

Il est donc capable d’évaluer la perte d’information qui serait occasionnée par la disparition de certaines lettres redondantes ou de certains signes diacritiques, ce qui contribue à dépassionner le débat, même si « l’orthographe est le visage des mots ».

Et Maurice Gross de conclure son article de 1989 : « Nul amant n’accepte sans émoi qu’un esthète chirurgien prétende à changer le visage de l’aimée… Mais, après coup (NDLR : de bistouri…), tout le monde s’en trouve bien et même y découvre les charmes d’un amour rénové ».

Les commentaires sont fermés.