Modélisation et implantation d'un logiciel de gestion des ressources humaines. Cas de l'électricité du Congo "EDC/ Tshikapa"( Télécharger le fichier original )par Charles MBUYI TUKANDILE Institut supérieur de commerce Tshikapa RDC - Graduat en gestion information 2011 |
CHAPITRE PREMIER :DEFINITION DES CONCEPTS ET L'ETUDE PREALABLEI.1. DEFINITION DES CONCEPTS
I.1.1.1. Définitions L'informatique est définie de différentes manières et selon les auteurs : 1. l'informatique est la science du traitement de l'information dans les domaines scientifiques, techniques, économiques et sociaux (Gaci Mohamed, Alger, 2004, P.13) 2. l'informatique est l'ensemble des disciplines scientifiques et des techniques spécifiquement applicable au traitement de l'information, effectué notamment par des moyens automatiques. (Nébil Ben NESSIB et Khaled RAOUADI, Tunis, 2007, P.4) 3. l'informatique est l'ensemble des méthodes scientifiques et techniques spécialement applicables au traitement de l'information effectuée par des moyens automatiques. Les moyens automatiques sont composés d'éléments matériels (principalement des ordinateurs) et d'éléments logiciels (des systèmes d'exploitation, des logiciels d'application, des progiciels ou logiciels outils). (Jean Paul MUKANYA, ISC-TPA, 2010, P.10) 4. Définition de l'Académie Française ; science du traitement rationnel, notamment par des machines automatiques, de l'information considérée comme le support des connaissances et des communications, dans les domaines technique, économique et social. (J. Farré, Paris, 2010, P). I.1.1.2 Bref historique L'histoire de l'informatique couvre environ 12000 années, c'est pourquoi je vous propose ces quelques liens réunis dans un « petit sommaire » : · De l'an -10000 au XIIIème siècle. · Du XVIème siècle à la fin du XXIIème. · De 1884 à 1945 · De 1946 à 1968 · De 1968 à 1991. 1. De l'an -10000 au XIIIème siècle. Les fondations de l'informatique : la saisie, le codage, le calcul, l'écriture, la logique, le zéro. C'est durant la période de 10000 à 3000 avant J.C que n'acquit le traitement rationnel de l'information. En Mésopotamie, 1300 ans plus tard, l'empereur Hammourabi introduit la notion de norme dans le traitement de l'information grâce à sa loi du talion... Les horloges égyptiennes, qui furent les premiers systèmes de traitement de l'information, apparurent en 1550 avant J.C. les chinois arrivèrent à mesurer la durée d'une année en utilisant un observatoire astronomique en 1200 avant J.C., ils ont aussi, à l'origine de nombreuses inventions ; le papier qui fut un support d'informations révolutionnaire en 105 après J.C. 2. Du XVIème siècle à la fin du XXième siècle Les découvertes : le binaire, l'électricité, les logarithmes, les boucles de programmes, le téléphone, l'imprimerie et la machine à calcul. Le XVIIIème siècle fut le temps des machines à calculer ; en 1624 l'Allemand Schickard présenta sa machine mais elle fut détruite la même année. En 1642, la Pascaline du français Pascal fut la première à réellement fonctionner et beaucoup de personnes s'appuieront sur cette découverte. Enfin Leibnitz construisit sa propre machine en 1694 (division et multiplication) suivant le model de Pascal. Les cartes perforées furent utilisées en 1728 par le français Falcon et en 1800 par un autre Français, Jacquard. Ces cartes servirent dans des machines à tisser. En 1820, l'arithmomètre du français Thomas connut un énorme succès, 1500 exemplaires vendus dans plusieurs pays. Quelques années plus tard, en 1833, la machine analytique de l'anglais Charles Babbage ne fut qu'un échec, alors qu'elle est toujours considérée comme le premier ordinateur car elle intègre beaucoup de concepts de l'ordinateur contemporain : mémoire, registre, unité de calcul. Le code morse fut inventé en 1838 et le premier télégraphe fonctionna en 1844. La mathématicienne Anglaise Lovelace, qui est considérée comme la première programmeuse de l'histoire informatique, instaura en 1840 l'itération d'un programme (la boucle). Collaboratrice de Babbage, elle appela « algorithme » le processus logique permettant l'exécution d'un programme. George Boole est à l'origine en 1854 de l'algèbre binaire. 3. De 1884 à 1946 Les découvertes : l'effet photoélectrique, la diode, les principes de l'automatisme, le BUG d'un programme, la télévision, le binaire et plusieurs théories sur l'information et le calcul. Pour faire face aux problèmes de transfert de données concernant la démographie, l'américain Hollerith inventa en 1884 la mécanographie qui sera utilisée en 1890 par le gouvernement des Etats-Unis pour recenser la population. Hollerith créa alors la « Tabulating Machine Company » qui donnera naissance au grand groupe IBM « International Business Machine ». 4. De 1946 à 1968 Le triomphe du binaire, la constitution physique de l'ordinateur, le transistor, la cybernétique, l'intelligence artificielle, l'accès au traitement, la télécommunication mondiale. L'ENIAC (Electronic Numerical Integrator Computer) marqua à tout jamais l'année 1946 car ce fut le premier véritable ordinateur. Cette machine pèse 30tonnes, mesure 24 mètres de long, est haute de 5.4 mètres. Elle utilise 18000 tubes à vides, réussit à traiter à son premier essai un million de cartes perforées, ce qui réjouit ses inventeurs américains Eckert et Mauchly. A la suite de ce travail, Von Neumann écrivit un rapport sur un ordinateur qui devait succéder à l'ENIAC : L'EDVAC (Electronic Discret Variable Computer).Un conflit entre les différents inventeurs mit terme à sa réalisation. Une des découvertes les plus importantes de l'histoire humaine est le transistor. Inventé en 1947 par trois américains de la compagnie Bell, il sera l'élément de base des microprocesseurs. Un an après, c'est un rapport révolutionnaire sur l'asservissement qui fut publié par le mathématicien Américain Wiener. Cette oeuvre reste la base de la robotique actuelle. Shannon rendit sa publication sur la théorie mathématique de la communication, ouvrage clef pour le développement des télécommunications. 1. De 1968 à 1991 Cette période est très riche en découvertes 1968-1977 constitue la période la plus vaste pour le développement de l'informatique. Elle commence avec l'arrivée du mini-ordinateur qui va secouer les conceptions que l'on croyait pourtant bien assises des centres informatiques aux immenses salles à air conditionné. Elle va se terminer en 1977 avec un autre bouleversement, aux conséquences considérables, l'arrivée du micro-ordinateur banalisé (l'Apple II) qui va devenir rapidement un produit grand public, accessible à tous sur les étagères des grandes surfaces. Entre ces deux dates, la télématique acquerra les bases de connaissances nécessaires pour son épanouissement. Cette apparition des micro-ordinateurs aura pu être réalisée grâce à la découverte fondamentale en 1971 du micro-processeur (l'INTEL 4004). En une période très courte, cette nouvelle puce va réussir à envahir tous les domaines de la société. Si le micro-processeur doit être considérer auprès de l'ENIAC et du transistor comme l'une des trois inventions clefs de l'informatique. Il ya lieu de retenir plus particulièrement sur cette période les inventions suivantes : - La souris en 1978. Notion d'interactivité homme machine - Le développement des différents réseaux : ARPANET, TELENET et ETHERNET - La définition des principes de la programmation structurée : PASCAL, LANGAGE C. - L'arrivée de langages utilisés par l'intelligence artificielle. - L'évolution des imprimantes : aiguille en 1971, laser en 1975. - Le disque souple : une nouvelle forme de mémoire. (Jacob MBOMBO, 2010-2011, P.3) 1.1.1.3. Sortes d'informatiques Actuellement les domaines couverts par l'informatique sont innombrables. Nous citons ici quelques unes : - L'informatique gestion : elle consiste à simplifier la gestion d'une entreprise. Cette gestion concerne l'administration, la facturation, la comptabilité, le stock ; les personnels, les matériels. en d'autre terme toute activité qui s'effectue au sein de l'entreprise. - L'informatique industrielle : c'est celle qui s'occupe du contrôle et de la gestion des pièces produites par l'industrie. - L'informatique robotique : celle-ci concerne toute activité technique qui vise à remplacer l'homme dans certains travaux épuisant, dangereux par des robots. Elle est souvent utilisée pour soulager la misère physique des handicapées ou remplacer les ouvriers qualifiés. Ici la machine assiste la machine outil (robot). - Informatique bancaire : elle s'occupe de la réduction des couts, du gain de temps dans la manipulation et le transfert des fonds. - Informatique médicale : elle sert dans le contrôle de processus biologique pur et médical. Aujourd'hui elle est utilisée pour poser des diagnostics, interprète les résultats dans les analyses médicales. Cela ne relève pas de la fiction, procéder à une opération chirurgicale assistée par l'ordinateur. - Informatique domestique : elle s'intéresse à des outils informatiques en usage de la maison. Il s'agit généralement des capteurs qui déclenchent automatiquement un système installé dans la maison. On parle souvent de la maison intelligente. - Informatique documentaire : elle permet de gérer et, ou traiter des livres, des articles, des revues, des publications des éditions, des auteurs et autres documents au moyens de l'ordinateur. (Jacob MBOMBO, 2010-2011, P.6) I.1.2. ORDINATEUR I.1.2.1 Définition Selon le Dictionnaire de l'informatique et d'internet ( www.Dictofr.com), l'ordinateur est un nom donné en 1955 aux premières machines d' IBM par Jaques Perret. (En Anglais : Computer) C'est une machine à traiter électroniquement les données. Jacob MBOMBO (2010-2011, P.7) quant à lui, définit l'ordinateur comme une machine dotée d'une unité de traitement lui permettant d'exécuter des programmes enregistrés. C'est un ensemble de circuits électroniques servant de manipuler des données sous forme binaire, ou bits. I.1.2.2 Evolution L'histoire de l' ordinateur nous provient du fait que l'homme, par nature paresseux, a toujours cherché à améliorer sa façon de calculer, afin de limiter ses erreurs et pour économiser de son temps. · A l'origine le boulier Le boulier, appelé aussi « abaque », a été inventé en l'an 700 ; il fut longtemps utilisé et l'est encore aujourd'hui dans certains pays. On attribue généralement l'invention du logarithme à l'écossais John NEPER (1550-1617, parfois orthographié NAPIER). En effet en 1614 celui-ci démontra que la multiplication et la division pouvaient se ramener à une série d'additions. Ceci permit dès 1620 l'utilisation de la règle à calcul. Pour autant le vrai père de la théorie des logarithmes est « Mohamed Ybn Moussa Al-KHAWAREZMI », un savant arabe issu de la ville persane appelée « Khawarezm ». Ce savant développa par ailleurs l'Algèbre, terme provenant de l'arabe « Al-Jabr », qui signifie compensation, sous-entendu « la compensation par la recherche de la variable inconnue X afin d'équilibrer les résultats des calculs ». · Les premières machines à calculer En 1623, William Schickard inventa la première machine
à calculer mécanique. En 1673, Gottfried Wilhelm Von Leibniz ajouta à la
Pascaline la multiplication et la division. C'est en 1820 qu'apparaissent les premiers calculateurs mécaniques à quatre fonctions : addition, soustraction, multiplication, division Ceux-ci sont rapidement (1885) agrémentés de clavier pour saisir les données. Des moteurs électriques viennent rapidement supplanter les manivelles. · Les ordinateurs programmables En 1938, Konrad Zuse invente un ordinateur qui
fonctionne grâce à des relais électromécaniques :
le Z3. Cet ordinateur est le premier à utiliser
le
binaire au
lieu du décimal.
En 1942, l'ABC (Atanasoff Berry Computer) du nom de ses concepteurs J.V. Atanasoff et C.Berry voit le jour. En 1943, le premier ordinateur ne comportant plus de
pièces mécaniques est créé grâce
à J.Mauchly etJ.Presper Eckert :
l'ENIAC (Electronic Numerical Integrator And
Computer). Il est composé de 18000 lampes à vide, et occupe
une place de 1500 m2. Il fut utilisé pour des calculs ayant
servi à mettre au point la bombe H. La première erreur informatique est due à un insecte qui, attiré par la chaleur, était venu se loger dans les lampes et avait créé un court-circuit. Ainsi le terme anglais pour « insecte » étant « bug », le nom est resté pour désigner une erreur informatique. Le terme bug a été francisé par la suite en bogue, terme désignant également le nom de l'enveloppe épineuse et piquante de la châtaigne. En effet, les tubes étant de médiocres conducteurs, ils nécessitaient une grande quantité d'énergie électrique qu'ils dissipaient en chaleur. Cette lacune est palliée en 1946 avec la mise au point de l'EDVAC (Electronic Discrete Variable Computer) permettant de stocker les programmes en mémoire (1024 mots en mémoire centrale et 20000 mots en mémoire magnétique). En 1948, le transistor est créé par la firme Bell Labs (grâce aux ingénieurs John Bardeen, Walter Brattainet William Shockley). Il permet dans les années 50 de rendre les ordinateurs moins encombrants, moins gourmands en énergie électrique donc moins coûteux : c'est la révolution dans l'histoire de l'ordinateur. · Le circuit intégré Le circuit intégré est mis au point en 1958 par Texas Instruments, il permet de réduire encore la taille et le coût des ordinateurs en intégrant sur un même circuit électronique plusieurs transistors sans utiliser de fil électrique. C'est en 1971 qu'apparaît le premier micro-ordinateur : le Kenback 1, avec une mémoire de 256 octets. En 1971, le premier microprocesseur, l'Intel
4004, fait son apparition. Il permet d'effectuer des opérations
sur 4 bits simultanément. En 1973, le processeur 8080 d'Intel garnit les premiers micro-ordinateurs : le Micral et le Altair 8800, avec 256 octets de mémoire. A la fin de l'année 1973, Intel commercialisait déjà des processeurs 10 fois plus rapides que le précédent (le Intel 8080) et comportant 64 ko de mémoire. En 1976, Steve Wozniak et Steve Jobs créent
l'Apple I dans un garage. Cet ordinateur possède
un clavier, un microprocesseur à 1 MHz, 4 ko de RAM et 1 ko de
mémoire vidéo. En 1981 IBM commercialise le premier « PC » composé d'un processeur 8088 cadencé à 4.77 MHz. Il est très difficile de nos jours de suivre l'évolution de l'ordinateur. En effet cette évolution suit la loi de Moore (Intel(c)) : « on peut placer 4 fois plus de transistor sur une puce tous les 3 ans ». On devrait ainsi arriver à 1 milliard de transistors sur une puce aux alentours de 2010. (www.commentcamarche.net) I.1.2. TYPES D'ORDINATEURSOn distingue généralement plusieurs familles d'ordinateurs selon leur format : - Les mainframes (en français ordinateurs centraux), ordinateurs possédant une grande puissance de calcul, des capacités d'entrée-sortie gigantesques et un haut niveau de fiabilité. Les mainframes sont utilisés dans de grandes entreprises pour effectuer des opérations lourdes de calcul ou de traitement de données volumineuses. Les mainframes sont généralement utilisés dans des architectures centralisées, dont ils sont le coeur. - Les ordinateurs personnels, parmi lesquels on distingue :
- Les tablettes PC (en anglais tablet PC, également appelées ardoises électroniques), composées d'un boîtier intégrant un écran tactile ainsi qu'un certain nombre de périphériques incorporés. - Les centres multimédia (Media Center), représentant une plate-forme matérielle, destinée à une utilisation dans le salon pour le pilotage des éléments hifi (chaîne hifi, téléviseur, platine DVD, etc.). - Les assistants personnels (appelés PDA, pour Personal digital Assistant, ou encore handheld, littéralement «tenu dans la main»), parfois encore qualifiés d'organiseur (en anglais organizer) ou d'agenda électronique, sont des ordinateurs de poche proposant des fonctionnalités liées à l'organisation personnelle. Ils peuvent être dotés des fonctions d'un téléphone portable. On parle alors souvent dans ce cas de smartphone. - Enfin, les netbooks sont des ordinateurs portables dotés d'un écran de petite dimension (généralement 12") et dont on a remplacé le disque dur par de la mémoire flash, afin de réduire la consommation électrique (et le coût). (www.commentcamarche.net) |
|