Retour accueil www.compucycles.com imprimer

Informatique de gestion : Vers le "Tout Internet" ?
V. Sayasenh


Résumé : A quels besoins l’informatique Internet peut-elle répondre ?
Le processus d’informatisation Internet est-il original ?
Est-elle appelée à remplacer l’informatique classique ?
Quels sont les points d’achoppement ?

Le texte ci-dessous présente les idées directrice en caractères gras afin de faciliter le repérage visuel lors d'une lecture à l'écran.

Si l’Internet s’est longtemps limité à connecter les ordinateurs des universités américaines, sa technologie existe tout de même depuis une trentaine d’années. Si le Web, son sous-ensemble « grand public » s'est mis en place, au début de manière quasi confidentielle, puis très doucement, à partir de 1989, l’informatique d'application utilisant le Web, elle, a démarré en trombe vers 1997, lorsque les serveurs de Microsoft sont devenus suffisamment puissants pour détrôner Unix de sa position de quasi-monopole.

Au cours des 3 à 4 ans de délire qui suivirent, on fonça tête baissée sans trop chercher à définir les contours de cette nouvelle branche de l’informatique d’entreprise : En dehors de quelques domaines d’utilisation évidents, on cernait mal le potentiel de ce nouvel outil et ses limites par rapport à une informatique classique … et par quel bout il convenait d'attraper le mécanisme.

I. Un processus d'informatisation inversé

L’informatique classique :

Dans les faits, une entreprise s’informatisait en commençant par ses tâches les plus internes.

Le triplet de départ était, bien souvent : La comptabilité, la paie, la facturation. Ces traitements sont très centralisés, répétitifs, en différé par rapport à l’évènement et supposent une part importante d’éditions. L’écriture de ces programmes n’est pas nécessairement simple, mais une fois mis au points, ils sont très stables (la législation sur les 35 h ont fait souffler un vent de panique chez les éditeurs de logiciels de paie, mais c’est une autre histoire).

Puis entrèrent en piste des applications de gestion (des stocks, par exemple) qui supposaient une saisie et une restitution rapides de l’information. Ils sont typiques des années 1980, qui virent l’essor de l’interactivité en informatique "générale". Les trois « unités » classiques évoluèrent : Pour le "lieu", ces traitements impliquaient des relations avec des pôles de l’entreprise qui pouvaient être géographiquement distants. Pour le "temps" et pour l’"action", l’immédiateté introduisit les écrans. Le recours aux méthodologies devenait nécessaire en raison de la relative complexité de leurs inter-connexions et de leur raccordement avec les éléments préexistants d’une informatique plus ancienne.

Les besoins évoluaient : Une troisième vague de traitements, qui marquèrent la décennie 1990, concerna les outils d’aide à la décision. Mais la gestion de la traçabilité (pour le passé) et du prévisionnel (pour l’avenir) s’appuie sur une mise à disposition instantanée et permanente de tous les évènements qui marquent la vie d’une entité. Il fallait une autre approche de construction des systèmes d’information, à laquelle se sont attelées les méthodologies d’inspiration anglo-saxonnes qui ont formalisé les enchaînements selon un « axe dynamique ». Le virage fut difficile à prendre pour beaucoup d’informaticiens.

Lorsqu’une entreprise s’installait, elle ne se lançait pas nécessairement dans un schéma d’informatisation globale. Elle avait tendance à procéder par étapes, en revivant à son échelle l’historique de ces différents besoins.

Mais, les échanges avec le monde extérieur à l’entreprise restaient difficiles à introduire dans ces mécanismes : Les simples connexions avec les succursales imposaient déjà le recours à une technologie coûteuse et, de toute manière, l’informatique « sur mesure » représentait un investissement lourd.



Extrait de : Industrie et Technologies N° de janvier 2003 p.28

Ce graphique traduit la construction d'une informatique "classique" (des tâches les plus internes vers les plus externes).
Une informatisation Internet se déroule, en principe, en sens inverse.

Le bouleversement Internet : de l’externe vers l’interne

La donne s’est trouvée bouleversée par l’informatique Internet : Mettre un site en réseau avec le vaste monde est devenue quasiment gratuit, hormis quelques opérations actuellement peu onéreuses : La réservation du nom de domaine (à partir de 15 € / an), et l’hébergement du site avec base de données (à partir de 30 € / mois environ).

Dès lors, les éléments déclenchant la décision ne sont en relation directe avec le calibre de l’entreprise, le volume des données à traiter, le caractère répétitif des traitements, leur complexité, ou la simple recherche d’un gain sur le coût de la main d’œuvre.

La principale motivation du pied à l’étrier est devenue la relation à la clientèle : la première réalisation informatique est très souvent le catalogue, suivie ou non par des traitements de commande, avec ou non paiement en ligne.

Un autre angle d’attaque peut être la gestion d’emails (envois périodiques en nombre, ou mise en base de données d’emails reçus).

Plus une entreprise est située sur un créneau original (elle sera facilement détectée par les moteurs de recherche) avec une clientèle dispersée, plus elle a intérêt à Internet. L’urgence de la transmission d’une modification (qu’il s’agisse de pages statiques ou générées informatiquement) joue également.

Mais un catalogue ou une commande, s’ils sont Internet ne sont pas nécessairement informatiques. Quant au passage à l’informatique Internet, il est déterminé, à ce stade, par :


Il peut également se produire que d’autres contacts distants jouent un rôle déterminant dans le passage à l’Internet :

En somme, l’ Internet a donc commencé par apporter des possibilités nouvelles à l’informatique, sur la base de la distance (éloignement géographique), du temps (fréquence et/ou urgence) et des frais postaux (courrier par voie terrestre).

II. Vers le « Tout Internet » ?

L’informatique Internet peut-elle réellement supplanter l’informatique classique ? On peut hésiter lorsqu'il s'agit de traitements d’édition : Une page Web, même fort longue, est imprimable sans problème. Mais, en l’état actuel des choses, ce n’est tout de même pas le point fort du Web. L’observation peut être étendue à n’importe quel enchaînement de traitements relevant typiquement des traitements « en différé ». Le Web reste le terrain de l’interactivité, du temps réel (pour l’instant du moins).

Cette réserve une fois faite, l’idée du « tout Internet » a fait son chemin, tout en ouvrant des horizons nouveau à certaines fonctions, considérées jusque là comme purement « intra ».

Ainsi la comptabilité d’une entreprise, en devenant accessible par Internet, permet à l’expert-comptable de mener ses audits sans se déplacer.

Un traitement de paie couplé avec la possibilité, pour des personnels placés en clientèle, de saisir eux-mêmes à distance, au fur et à mesure, les caractéristiques de leur mission, permet d’accélérer leur rémunération et d’assurer le remboursement immédiat de leurs frais.

Autre possibilité : Utiliser les ressources informatique d’un navigateur isolément. Un représentant, par exemple, dont l’ordinateur portable est équipé de l’un d’entre eux (Internet Explorer, Netscape (Firefox), Opera …) peut disposer de traitements de « calculettes » spécialisées, telles que calculs de prime d’assurance, tableaux d’amortissement ou autres, écrites en Javascript (langages intégrés à tous les navigateurs), et cela sans qu’il soit nécessaire d’installer un serveur.

En revanche, un tel serveur devient nécessaire sur le micro lorsqu’il s’agit de recourir à une base de données, en lecture ou en écriture, via la technologie Internet (à titre indicatif, le serveur de Microsoft IIS, est installé en standard avec le système d’exploitation XP Pro). C’est le cas du voyageur de commerce qui enregistre ses informations sur sa base de données « locale » et les envoie périodiquement et de manière automatique vers le Siège, ou du médecins qui transmets, de la même manière, des compte-rendus de consultation sur un thème médical à un organisme fédérateur, qui lui donne accès, en échange, à des statistiques nationales sur ce même thème, tenues à jour en temps réel.

Actuellement, un service central peut suivre en temps réel l’évolution de statistiques alimentées au fur et à mesure par la lecture d’étiquettes à code-barres dans ses dépôts n’importe où dans le monde (avec, par exemple, lancement de fax automatiques, de messages sur téléphone mobile etc.). Il s’agit là de technologies relativement simples à utiliser.

Il serait aussi possible de croiser ces statistiques et un traçage des éléments. Et là, ce n’est plus une affaire de technologie, mais des questions complexes de conception, d’analyse et d’algorithmes.



Extrait de : Industrie et Technologies N° de janvier 2003 p.28

La situation illustrée par ce graphique peut laisser perplexe : Le principal gain devrait, en toute logique, concerner les relations avec les partenaires extérieur. Il semble qu'un grand retard ait été pris dans ce domaine.

III. Alors, Pourquoi … ?

Devant l’immensité du marché ainsi ouvert, pourquoi tant de start-up déclarent-elles forfait? Le phénomène a déjà fait l’objet de recherches fouillées qui l'ont étudié sous l’angle économique et financier. On a, entre autres, fait valoir d’intéressantes analogies entre le krach boursier de l’Internet et la fin malheureuse de mouvements spéculatifs concernant les Chemins de fer, au XIXème siècle, amplifiés par des financiers visionnaires trop en avance sur leur temps. Ce qui n’a pas empêché les locomotives de conquérir ultérieurement la planète. Mais dans cet exemple, les aspects techniques n’étaient pas en cause.

Alors que pour l’Internet, la spéculation s’est doublée d’une immaturité au niveau de la maîtrise de l’outil, sur le plan applicatif.

Le déficit éditorial technique :

L’informatique, en général, est probablement la science où la vulgarisation scientifique est la plus biaisée, et il y a bien peu de place, dans les domaines de l’édition et de la presse, pour des écrits techniques réellement objectifs et indépendants, pour l'appréciation critique, dès que l'on touche aux aspects commerciaux.

Le résultat est qu’on ne parvient pas à distinguer les domaines de fond (relativement stables) des domaines évolutifs, que les responsables techniques passent plus de temps à trier les fausses innovations qu’à maîtriser les vraies, et que les décideurs, désorientés, sur-dimensionnent les investissements technologiques au détriment du travail de réflexion et d’analyse.

L’information technique de qualité émane essentiellement de l’Internet lui-même, grâce à des contributions bénévoles (en particulier des forums techniques). Les Anglo-Saxons publient beaucoup. Les Français beaucoup moins. Mais l'acquisition d'une stratégie d'investigation méthodique est une étape difficile dont l'importance est sous-estimée.

Pour le conseil aux professionnels non-informaticiens, les informations objectives et fiables sont rares.

La difficulté des choix

Dans ces conditions, s’affranchir du chant des sirènes n’est pas simple. D’une manière générale, il est conseillé :

L’informatique Internet a un tout de même un coût !

L’une des erreurs majeures de ces dernières années a été de croire que l’Informatique Internet serait considérablement moins chère. En fait, seuls les coûts technologiques ont beaucoup baissé.

Il est certain que les temps de développement ont pu être légèrement réduits. parce que les langages utilisés sont devenus plus confortables, et plus faciles à débugger. Mais le budget-temps qui doit impérativement être alloué aux phases de tests n’a aucune raison d’avoir pu être réduit.

C’est au niveau de l’installation et de la maintenance que des économies considérables ont pu être faites : Le FTP permet en effet de transférer (et de récupérer) en quelques instants les fichiers de données et de programme sur le serveur distant, alors que, en informatique classique, l’opération suppose, en principe, une transmission postale ou le déplacement physique d’un technicien.

En fait, c’est le travail préparatoire qu’il est très difficile de comprimer. Certes, le recours au courrier électronique permet d’accélérer les échanges de document, mais faute de cahiers des charges très détaillés, le facteur déterminant reste la qualité des interviews, en général menés par les sociétés de services candidates qui ne sont pas toujours habituées à ce genre d’exercice, face à des clients qui n’ont pas toujours beaucoup réfléchi à la question. Et vouloir économiser sur le temps d’analyse est des plus hasardeux.

Finalement, le seul moyen de réellement réduire les coûts au niveau technique est de disposer d’un stock d’analyses basiques et de modules standards bien charpentés, facilement adaptables à un contexte nouveau mais apparenté, et ajustables entre eux.

Après quoi, il faut être capable de choisir les analyses et les modules appropriés pour chaque situation, ce qui suppose de savoir identifier les problèmes en distinguant les vraies des fausses analogies.

Un travail de « clés-minutes », en quelque sorte : Le spécialiste individualise une pièce standard déjà usinée. Mais les matrices doivent être excellentes et l’art de la typologie n’est pas évident.

… Et une composante humaine :

Il est certain que les informaticiens bénéficient aujourd’hui de possibilités de bonnes formations. Mais le secteur de l’informatique Internet a surtout recruté, au moins à l’origine, des débutants mal formés. Qui se sont parfois pris pour des divas. Et ils n’étaient pas les seuls.

L'expérience calamiteuse de l'"offshore outsourcing", qui fut coupablement encouragée par des cercles influents après l'explosion de la Bulle Internet, a durablement désorganisé le mécanisme de la décision, en particulier dans les PME-PMI.

Actuellement les informaticiens de développement Internet, dont le profil s'est considérablement enrichi au contact d'autres mondes professionnels (contact direct avec les clients, les utilisateurs, les graphistes etc.) sont souvent très motivés, mais doivent beaucoup trop souvent accepter des conditions de travail difficiles (fréquemment en marge du Droit social, voire inacceptables) et un avenir qui reste aléatoire.

IV. Conclusion

L’Internet a renouvelé l’horizon de l’informatique : Globalement, c’est une voie moins onéreuse, pour un potentiel enthousiasmant.

Mais la considérer comme un gadget, ou l’utiliser sans scrupule, ne peut aboutir qu'à des déconvenues.

Et on ne bâtit rien de solide sur un rapport de force. Les cycles de l'informatique sont là pour le rappeler.

V. Bibliographie

Les différents sujets traités dans ce site se recoupant, les bibliographies ont été regroupées : Bibliographie générale


IDDN.FR.010.0100104.000.R.P.2002.035.20600
Conformément aux conventions internationales relatives à la propriété intellectuelle, cette oeuvre est protégée. Le titulaire des droits autorise : La reproduction et la représentation à titre de copie privée ou à des fins d'enseignement et de recherche et en dehors de toute utilisation lucrative. Ceci, sous réserve que soient indiqués clairement le nom de l'auteur et la source (IDDN de l'oeuvre), tels que signalés dans le présent document.


 Retour accueil www.compucycles.com imprimer