2. Émulation et simulation

2.1. Introduction

L'émulation et la simulation ont ceci en commun qu'elles visent toutes deux à virtualiser un système ou un phénomène. Cependant, il s'agit bien de deux concepts différents. En général, l'émulation consiste à imiter le comportement d'une machine grâce à un logiciel, là où la simulation imite un phénomène réel tel qu'un trou noir ou une tornade.

Des débats existent cependant en ce qui concerne la terminologie à utiliser dans certains cas : jusque dans les années 1980 particulièrement, le terme "émulation" faisait référence à l'émulation matérielle, et "simulation" à l'émulation logicielle.

Nous allons donc essayer de définir ce qu'est l'émulation. En effet, il ne faut pas confondre l'émulation et la simulation.

L'émulation consiste à substituer un élément de matériel, comme une machine, par un logiciel.

Il faut voir dans l'émulation une imitation du comportement physique d'un matériel par un logiciel, et ne pas la confondre avec la simulation, laquelle vise à imiter un modèle abstrait. L'émulateur reproduit le comportement d'un modèle dont toutes les variables sont connues, alors que le simulateur tente de reproduire un modèle mais en devant extrapoler une partie des variables qui lui sont inconnues (exemple : la simulation du comportement d'un trou noir). Le recours à un émulateur, selon le contexte, permet de faciliter le développement ou le débogage d'un système ou de remplacer un système obsolète ou inutilisable par un autre. Dans ce cadre, il est possible de faire fonctionner le nouveau système, l'émulateur, de la même manière que le système imité.

La simulation numérique est l'un des outils permettant de simuler des phénomènes réels.

Appelée aussi simulation informatique, elle désigne un procédé selon lequel on exécute un programme informatique sur un ordinateur en vue de simuler par exemple un phénomène physique complexe (ex: chute d'un corps sur un support mou, résistance d'une plateforme pétrolière à la houle, fatigue d'un matériau sous sollicitation vibratoire ...).

Les simulations numériques scientifiques reposent sur la mise en oeuvre de modèles théoriques utilisant souvent la technique dite des éléments finis. Elles sont donc une adaptation aux moyens numériques de la modélisation mathématique, et servent à étudier le fonctionnement et les propriétés d'un système modélisé ainsi qu'à en prédire son évolution. On parle également de calcul numérique.

Les interfaces graphiques permettent la visualisation des résultats des calculs par des images de synthèse.

Source : Wikipedia.

On peut donc voir que l'émulation et la simulation ne sont pas exactement la même chose.

En effet, la simulation consiste à faire un modèle théorique d'une machine ou d'un phénomène physique et de le faire tourner grâce à un programme informatique, pour voir son évolution.

Par contre, l'émulation consiste à mettre en place une imitation d'un comportement physique d'une machine par un logiciel. On sait exactement comment fonctionne la machine, comment elle va réagir et on l'émule pour avoir une réplique logiciel. Les buts de l'émulation sont la réduction des coûts, faciliter le développement d'une application (débogage)...

2.2. Émulation

2.2.1. Différents types d'émulation

On peut trouver différents types d’émulations possibles. En effet, l'émulation s'applique à plusieurs domaines et ne s'utilise donc pas pour le même but.

Émulateur de terminal (lien avec la virtualisation)

L'émulation de terminal s'utilise couramment. Il correspond à la mise en place d'une machine virtuelle qui permet d'émuler un terminal physique. L'émulation est généralement faite dans une fenêtre, ce qui permet d'émuler et utiliser plusieurs terminaux sur un seul moniteur d'ordinateur. On peut donc, par exemple, utiliser des commandes ou des logiciels Windows sur une machine UNIX ou vice-versa.

Une machine virtuelle est un conteneur totalement isolé capable d'exécuter ses propres systèmes d'exploitation et applications, à l'instar d'un ordinateur physique. Une machine virtuelle se comporte exactement comme un ordinateur physique et contient ses propres CPU, mémoire RAM, disque dur et cartes d'interface réseau virtuels (c'est-à-dire basés sur du logiciel).

Un système d'exploitation est incapable de faire la différence entre une machine virtuelle et une machine physique, il en est de même pour les applications ou d'autres ordinateurs attachés à un réseau. Il est important de préciser quand même qu'une machine virtuelle est entièrement composée de logiciels et qu'elle ne contient aucun composant matériel quel qu'il soit. En conséquence, les machines virtuelles offrent des avantages certains par rapport aux matériels physiques :

Dans ce domaine, on trouve de nombreuses solutions :

VBox Oracle VM VirtualBox est un logiciel sous licence GNU GPL depuis janvier 2007. Il est développé par SUN Microsystems. Il gère tous les systèmes d'exploitation tels que Windows, Linux ou MacOX.

VirtualPC est un logiciel propriétaire gratuit d'émulation et de virtualisation. Il permet d'émuler un système d'exploitation sur une architecture matérielle différente de celle à laquelle il était initialement destiné. Il permet également de faire fonctionner en même temps plusieurs systèmes d'exploitation différents sur une même machine physique. C'est la solution de Microsoft pour émuler un terminal.

Workstation permet d'émuler des systèmes d'exploitation complets. Il permet la création d'une ou plusieurs machines virtuelles au sein d'un même système d'exploitation (généralement Windows ou Linux), ceux-ci pouvant être reliés au réseau local avec une adresse IP différente, tout en étant sur la même machine physique. Il est possible de faire fonctionner plusieurs machines virtuelles en même temps, la limite correspondant aux performances de l'ordinateur hôte. C'est l'éditeur VMware qui fabrique cette solution, qui est payante.

Parallels Desktop, de la firme Parallels, est une application de virtualisation fonctionnant sous Mac OS X. Elle permet de faire fonctionner Windows ou tout autre système d'exploitation utilisant un processeur de type x86 sur Mac.

Xen Xen permet d'exécuter plusieurs systèmes d'exploitation (et leurs applications) de manière isolée sur une même machine physique sur tout type de plate-forme. Les systèmes d'exploitation invités partagent ainsi les ressources de la machine hôte. Il s'agit d'un "paravirtualiseur" ou un "hyperviseur" de machines virtuelles. Les systèmes d'exploitation invités ont conscience du Xen sous-jacent, ils ont donc besoin d'être portés (adaptés) pour fonctionner sur Xen.

Émulateur électronique

Dans le domaine de l'électronique, le terme émulateur représente un dispositif physique (matériel) qui permet de faire du développement et du débogage.

L'émulateur remplace physiquement le microprocesseur à l'aide d'une sonde. L'émulateur remplace ainsi (à l'identique) le microprocesseur d'un point de vue électrique et numérique. La sonde est interfacée avec un ordinateur de développement pour permettre à l'ingénieur de contrôler et d'observer le fonctionnement du microprocesseur émulé (ceci à des fins de test).

On parle d'émulateur temps-réel lorsque celui-ci respecte les contraintes temporelles du microprocesseur comme les cycles d'écriture ou les temps de réponse.

On peut retrouver ici le terme d'émulateur in-circuit (également appelé on-circuit debugger ou background debug module). Il s'agit d'un dispositif matériel qui permet de déboguer le logiciel d'un système embarqué. Un tel dispositif devient de plus en plus important car les systèmes embarqués présentent un certain nombre de lacunes. Ainsi, ils ne comportent ni clavier, ni écran donc aucune interface avec l'utilisateur qui permettrait d'interagir avec le système.

On parle d'émulation in-circuit lorsque l'on branche un émulateur in-circuit sur un système électronique en lieu et place du composant à émuler (souvent un microcontrôleur ou un microprocesseur). Les émulateurs in-circuit permettent alors de faire fonctionner le système tout en permettant de le déboguer.

On peut trouver ici différentes solutions différentes :

dSPACE Simulator est un produit qui permet de mettre en place des tests de logiciel. On peut, par exemple, faire des tests de voitures virtuelles et non pas essai sur route (Audi, Bugatti : tester l'électronique sur une voiture qui va très vite (400 km/h)).

LabView est un produit de la société National Instruments. Elle propose des solutions pour la mise en place de tests.

HIL
Concept de la notion de Hardware-in-the-loop

On touche ici à la notion de Hardware-in-the-loop (HIL). Cette notion est importante car certains systèmes sont chers et fragiles et donc faire des tests dessus peut être risqué et coûteux.

On effectue une émulation du système à construire pour pouvoir faire des tests "réels" et non pas de la simulation. Si on n'utilise pas le HIL, on peut, par exemple, tester le code d'abord sur un PC de bureau avant d'être porter sur le microcontrôleur final (ou autre). On simule le système embarqué (entrées/sorties) et l'environnement d'exécution avec un code personnalisé sur leur PC.

Il existe trois principales différences entre une telle simulation et un HIL.

Tout d'abord, les sorties des simulations ne sont que des lignes ondulées sur un graphique, pas des signaux matériels.

Deuxièmement, la HIL fonctionne en temps réel.

Troisièmement, dans un HIL, le logiciel embarqué s'exécute sur le matériel "réel" que vous finirez par créer dans votre produit, pas un poste de travail.

HIL
Schéma explicatif de la notion de Hardware-in-the-loop

On travaille donc avec le même logiciel que l'on va utiliser sur la machine réelle et non pas une adaptation pour tester sur l'ordinateur. Cela permet de ne pas perdre du temps à développer une version pour les tests (qui fonctionne que sur un ordinateur) et une version qui sera embarquée (pour le système à développer).

On a donc des signaux physiques réels en entrée et en sortie et non pas des signaux logiciels.

HIL
Exemple de Hardware-in-the-loop dans le domaine de l'aviation

Dans cet exemple donné dans le domaine de l'aviation, on peut voir que l'on fonctionne directement avec le système de pilotage automatique. On peut voir que l'on lui donne des données réelles en entrées, il réagit à ces données (on remonte ou on descend en altitude) et le HIL permet de rendre les données relatives aux angles ou à l'accélération (réaction de l'avion au changement d'altitude). On teste donc directement le logiciel de pilotage automatique qui sera implanté dans un avion (stimuli physiques) et non pas une version qui répond à des stimuli simulés.

Le but de la HIL est de tester un système embarqué. La preuve que le système embarqué a passé le test, c'est que ses résultats sont corrects pour les entrées qu'il a été donné. Le HIL doit, par conséquent, fournir des données suivant les paramètres donnés (suivant un calendrier). Un moyen facile de le faire est d'écrire l'état de la simulation dans un fichier.

Le terme "état" désigne toutes les entrées de la simulation, ses sorties, et toutes les valeurs internes qu'elle génère et qui sont utilisées pour calculer les résultats du prochain cycle. À la fin de l'essai, on peut transférer le fichier à un programme comme MATLAB et analyser les résultats.

Cette notion de Hardware-in-the-loop est très présente dans les domaines de l'aviation, de l'automobile, de l'aérospatiale.

Émulateur de jeux

Le dernier type d'émulation concerne les jeux vidéo. On fait une émulation des consoles de jeux que l'on alimente par des ROM. L'extension des fichiers ainsi que les renseignements concernant le jeu sont généralement indiqués dans le nom du fichier. Il s'agit d'une nomenclature particulière qui s'est imposée d'elle-même afin d'apporter des précisions utiles et importantes à la ROM et ainsi d'en faciliter son partage avec d'autres utilisateurs.

Émulation de haut niveau

L'émulation de haut niveau (HLE, High-Level Emulation) est une approche lors de la conception d'émulateur qui consiste à porter son attention sur la réponse du système émulé plutôt que sur le fait de recréer précisément son fonctionnement interne. Ce procédé s'oppose à la méthode traditionnelle d'émulation dite de bas niveau (LLE, Low-Level Emulation) dont l'objectif est d'imiter le comportement et le fonctionnement de la machine émulée.

Le critère permettant de définir un émulateur de haut niveau est plutôt simple : celui-ci doit posséder un niveau d'abstraction plus élevé que le code machine brut exécuté, niveau d'abstraction permis non pas par le logiciel exécuté par l'émulateur mais par son système d'exploitation ou son matériel.

Les avantages d'une émulation de haut niveau sont particulièrement importants dans le domaine de l'émulation des consoles de jeux de cinquième génération et plus : la complexité des consoles augmentant rapidement et leur architecture matérielle étant souvent assez éloignée de celle des PC, une émulation de bas niveau demanderait une puissance de calcul trop importante. À la place, l'émulation de haut niveau consiste à implémenter les fonctions requises par l'émulateur de façon appropriée pour la machine hôte, en tirant parti de ses caractéristiques matérielles : calcul en virgule flottante, GPU...

2.2.2. Acteurs

On peut noter la présence de différents acteurs selon les types d'émulateur que nous avons définis plus haut.

Émulateur de terminal - Virtualisation

VMWare On retrouve ici 5 acteurs principaux : VMware, Citrix, Microsoft, Sun et Parallels.

Entreprise fondée en 1998, VMware a son siège à Palo Alto en Californie et possède des bureaux dans le monde entier. Sa clientèle est composée d'environ 170 000 sociétés de toutes tailles. Elle fournit des technologies conçues pour réduire sensiblement les coûts informatiques, élargir le choix de systèmes d'exploitation et offrir une infrastructure de systèmes plus automatisée et robuste, à même de s'adapter aux besoins fluctuants de l'entreprise.

Elle possède différentes solutions possibles, allant de la plus complète (Workstation) à une solution gratuite (Player).

C'est le leader sur le marché des logiciels de virtualisation.

Citrix Citrix Systems est une société de techniques avancées américaine basée à Fort Lauderdale, Floride, avec des filiales importantes au Royaume-Uni et en Australie. Elle était initialement uniquement éditrice de logiciels mais elle a acquis Net6 fin 2004 et propose désormais des solutions matérielles.

Citrix propose une suite de produits proposant une architecture de fédération des applications, même hétérogènes. Dans leur architecture, les différentes applications de l'entreprise fonctionnent toutes sur un serveur centralisé. Les utilisateurs accèdent à leurs applications sur le serveur via un client Citrix.

Elle a acquis, le 15 août 2007, la société XenSource. Cela lui a permis d'entrer dans le marché de la virtualisation sur les serveurs et les stations de travail.

Microsoft Microsoft Corporation est une multinationale informatique américaine, fondée par Bill Gates et Paul Allen. Son activité principale consiste à développer des systèmes d'exploitation et logiciels pour micro-ordinateur. Son siège social se situe à Redmond, près de Seattle, et ses meilleures ventes sont le système d'exploitation Windows et la suite bureautique Microsoft Office.

En octobre 2003, Microsoft a racheté le logiciel VirtualPC à l'entreprise Connectix pour pouvoir entrer dans le monde de la virtualisation.

Sun Sun Microsystems est un constructeur d'ordinateurs et un éditeur de logiciels américain.

Le 20 avril 2009, il est racheté par Oracle Corporation.

Le nom Sun vient de Stanford University Network (Réseau de l'Université Stanford). Il produit des serveurs et stations de travail basés sur le processeur SPARC et x86, les systèmes d'exploitation Solaris (anciennement SunOS), une Machine virtuelle Java, le langage de programmation Java.

Il développe l'environnement de virtualisation VirtualBox sous licence GPL.

Parallels Parallels est l'un des leaders mondiaux de logiciels de virtualisation et d'automatisation qui optimise l'infrastructure informatique des particuliers, entreprises et fournisseurs de services via toutes les plates-formes majeures de virtualisation, de systèmes d'exploitation et de matériel. Créée en 1999, Parallels est une société en croissance rapide qui compte environ 700 employés en Amérique du Nord, en Europe et en Asie.

On peut maintenant voir la répartition des forces sur le marché :

Leader Comptetitor Follower
VMWare X
Citrix X
Microsoft X
Oracle VM (Sun) X
Parallels X
Source: Info-Tech Research Group

Deux modifications majeures ont affecté le paysage des fournisseurs en 2007 et 2008 :

En 2009, Microsoft est devenu un concurrent plus sérieux en partie à cause de la technologie Hyper-V mais aussi en raison du dynamisme de sa stratégie TI (Technologie de l'information) et de Virtual Machine Manager 2008. XenSource a été remplacé dans le paysage vendeur par Citrix (rachat). Parmi les trois fournisseurs figurant dans le paysage en tant que concurrents, Citrix est aujourd'hui le premier challenger de VMware en termes de largeur de produits et stratégie d'entreprise. Oracle est devenu aussi un concurrent sérieux depuis le rachat de Sun et de Virtual Iron.

En 2008, VMware a marqué son dixième année d'existence. Le premier produit de la société était un logiciel pour l'exécution de plusieurs instances virtuelles sur Microsoft Windows et sur les ordinateurs de bureau. Toutefois, il a mis en place des logiciels de virtualisation de serveur qui est devenu son produit phare. Grâce à cette longueur d'avance significative, VMware a acquis une part de marché dominante (plus élevé que 80% des installations selon certaines estimations). VMware a continué de croître et d'innover par la suite.

Mais 2008 n'a pas été une bonne année pour VMware. Les mouvements de la concurrence (par exemple Microsoft et Citrix) ont été beaucoup plus importants. On a également vu des turbulences internes et le président fondateur Diane Green et le cofondateur Mendel Rosenblum ont tous deux quitté l'entreprise. De plus, la société VMware a trébuché sérieusement en août 2008, quand une partie du code a causé la panne de la plus récente version d'ESX Server. Tous ces facteurs ont contribué à une baisse des prix des actions VMware.

Microsoft s'est positionné dans le domaine de la virtualisation depuis 2003 lors de l'acquisition de Virtual PC de Connectix. Toutefois, Microsoft ne pouvait pas prétendre être en concurrence directe avec VMware ESX Server, car il lui manquait un produit pour serveurs. Or, Microsoft n'a pas seulement mis en place l'hyperviseur Hyper-V, mais il a également lancé une initiative de marketing majeur autour de la virtualisation, qui comprend l'adoption de la notion de l'infrastructure publique dynamique (qu'il appelle Dynamic IT).

En 2008, la société Citrix a vendu tellement de solutions qu'elle a réorienté sa stratégie autour de la virtualisation.

En terme de qualité du produit et de l'entreprise, on obtient le tableau suivant :

Maturité du produit et de la firme Fonctionnalités avancées et pertinence pour les infrastructures de services publics Coût de la licence
VMWare Haute Haute Basse
Citrix Moyenne Haute Moyenne
Microsoft Moyenne Basse Moyenne
Oracle Moyenne Moyenne Haute
Source: Info-Tech Research Group

On peut donc voir que le leader du marché est VMware mais que les concurrents se rapprochent de lui petit à petit en proposant des améliorations de leurs produits et en mettant en place des stratégies de communication de plus en plus agressive.

Émulateur électronique

Nous n'avons pas trouvé beaucoup d'acteurs dans ce domaine. En effet, d'après nos recherches, il semblerait que les entreprises préfèrent développer leur propre solution car elle ne trouve exactement ce qu'elles recherchent sur le marché. Pour preuve, on peut prendre le cas de Renault qui souhaitait uniformiser ses outils de test des systèmes électroniques embarqués dans ses véhicules. Comme elle ne trouvait pas de solution commerciale répondant à ce besoin, le constructeur français a confié à la société Clemessy le développement d'une solution logicielle capable de piloter les tests tout le long du cycle de conception.

C'est comme cela que s'est mise en place la solution de Renault : TestInView. C'est un logiciel pour le pilotage des tests de validation de systèmes électroniques embarqués conçu pour une utilisation dans toutes les phases de test du processus de développement et de validation (depuis la représentation virtuelle sous forme de modèles numériques vers son implémentation physique définitive en passant par des stades intermédiaires mixtes et par les différentes versions de maturation des prototypes).

Mais nous avons tout de même trouvé 2 acteurs : dSpace et National Instruments.

dSPACE Depuis sa création en 1998, dSPACE s'est considérablement développé. En plus de son siège à Paderborn, en Allemagne, ses centres de projets près de Munich et de Stuttgart offrent sur place un support optimal à ses clients. La société est représentée à Detroit, aux États-Unis (depuis 1991), à Melbourn au Royaume-Uni (depuis 2001), à Bièvres en France (depuis 2001), à Tokyo au Japon (depuis 2006) et à Shanghai en Chine (depuis 2008).

Il y a vingt ans, elle fut pionnière et attirait déjà beaucoup l'attention. Elle a posé les fondations de technologies clés telles que celles du prototypage rapide de lois de commande et de la simulation Hardware-in-the-Loop.

National Instruments fut fondé en 1976 par le docteur James Truchard, Bill Nowlin et Jeff Kodosky. Elle possède son siège à Austin (Texas) et a plus de 5 000 employés et a des activités dans 41 pays. Depuis 10 ans (1998-2008), le magazine Fortune considère National Instruments comme l'une de 100 meilleures entreprises aux États-Unis.

Elle produit des logiciels d'instrumentation virtuelle. Ceux-ci comprennent l'environnement de développement graphique LabVIEW, l'environnement de développement LabWindows, Measurement Studio pour l'instrumentation sous .NET, le séquenceur de tests TestStand et des matériels modulaires tels que les modules PXI pour l'acquisition de données, le contrôle des instruments et la surveillance des machines.

Émulateur de jeux

En ce qui concerne les émulateurs de jeux, les acteurs sont nombreux et beaucoup de regroupements de développeurs (des "teams") se sont créés pour pouvoir mettre au point des émulateurs de console afin de permettre au plus grand nombre de pouvoir jouer.

2.3. Simulation

2.3.1. Open Source Physics

OSP est un projet sponsorisé par la NSF (National Science Foundation) dont l'objectif est de distribuer des outils et des bibliothèques logicielles libres pour la physique et la simulation numérique. Il inclut l'outil EJS (Easy Java Simulations) qui permet la création de simulations sur ordinateur en les décrivant au niveau mathématique plutôt qu'avec du code source.

2.3.2. Les solutions

Il existe un grand nombre de logiciels de simulation, particulièrement dans le domaine de la mécanique des fluides et des gaz (dispersion…), du comportement de structures, des mouvements ou des collisions.

Dans ces domaines, on peut citer les logiciels européens suivants :

D'autres logiciels sont dédiés à la simulation de problèmes de gestion industrielle et de logistique : ligne de production, distribution, transports... :

Une liste plus importante peut être consultée dans la partie "exemple de logiciels" de l'article "simulation informatique" de Wikipédia : http://fr.wikipedia.org/wiki/Simulation_informatique, ou sur son équivalent anglophone: http://en.wikipedia.org/wiki/List_of_computer_simulation_software.

Nous allons maintenant détailler quelques solutions plutôt répandues ou d'usage assez général.

Plant Simulation

Plant Simulation Licence : commerciale
Systèmes d'exploitation : Windows
Développeur : Siemens

Plant Simulation est un logiciel pour la modélisation, la simulation, l'analyse, la visualisation et l'optimisation de systèmes et processus de production, et les opérations logistiques.

Le logiciel supporte la programmation orientée objets, y compris l'héritage et le polymorphisme. Il est possible d'importer des données depuis d'autres solutions telles qu'Oracle, Access, Excel ou SAP, ainsi que des dessins créés avec AutoCAD ou Microstation par exemple.

La solution vient avec plusieurs outils permettant la détection de goulots d'étranglement (Bottleneck Analyzer), le suivi de flux de matériel (diagrammes de Sankey) et la détection de ressources surdimensionnées.

Les outils d'analyse de données comprennent aussi des algorithmes génétiques, des réseaux neuronaux, des analyses régressives, des détections de dépendances etc.

Code-*

Code-* Licence : libre (GNU/GPL)
Systèmes d'exploitation : multiplateforme (Fortran, Python, Java)
Développeur : EDF

Code Saturne, Code Mascaret et Code Aster sont les noms de trois projets développés par la section Recherche et Développement d'EDF depuis les années 80. Ils sont placés sous une licence open source depuis quelques années.

AnyLogic

AnyLogic Licence : commerciale
Systèmes d'exploitation : multiplateforme (Java)
Développeur : XJ Technologies

AnyLogic est un outil de simulation possédant un langage de modélisation graphique facilement extensible. Il inclut les bibliothèques standards suivantes :

2.3.3. Les acteurs

Nous allons passer en revue quelques acteurs dans le domaine de la simulation.

EDF

EDF Électricité de France est la principale entreprise de production et de distribution d'électricité en France. Elle a été créée en 1946, et s'est attachée par la suite à standardiser la tension fournie à ses clients, pour arriver au 230 V monophasé et 230/400 V triphasé.

Si EDF n'est pas fondamentalement une entreprise spécialisée dans l'informatique et le développement de logiciels, son département Recherche et Développement a contribué à plusieurs projets en rapport avec la simulation numérique : en plus de Code Aster, Code Saturne et Code Mascaret dont nous avons déjà parlé, EDF a contribué à la plate-forme Salomé qui offre différents services génériques pour la réalisation d'études et de simulations.

Siemens

Siemens Siemens est une entreprise allemande, également le plus gros conglomérat européen. Fondée en 1847 par Werner von Siemens, la société était à l'origine spécialisée dans la télégraphie. Elle possède maintenant plus de 430 000 employés, et un chiffre d'affaires de 100 milliards d'euros en 2008.

En janvier 2007, Siemens a acquis la société de développement texane UGS et l'a renommée « Siemens PLM Software ». Celle-ci est spécialisée dans les logiciels 3D et les solutions PLM (Product Lifecycle Management, littéralement « gestion de cycle de vie du produit »). Ses produits phares sont NX, un logiciel de CAD, la suite Teamcenter pour le design et développement de produits et la collaboration, et Tecnomatix, une suite d'outils pour la gestion de production.

XJ Technologies

XJ Technologies XJ Technologies est une société fondée en 1992 à St Petersburg en Russie. L'entreprise a depuis développé deux nouvelles branches spécialisées dans la vente et les conseils : une dans le New Jersey aux États-Unis, et une à Paris. AnyLogic est apparemment la seule solution que la société maintient actuellement.

2.4. Sources


Aspect Marketing

3.1. Introduction

Le marketing industriel se définit comme le marketing en direction des professionnels ou des organisations par opposition au marketing de grande consommation, qui s'adresse au grand public. Les produits ou services achetés par les entreprises, les collectivités ou les administrations publiques sont utilisés directement ou indirectement à la production d’autres produits ou services. Il se compose de toutes les organisations qui acquièrent des biens et services en vue de produire d'autres biens et services fournis à autrui.

Le chiffre d'affaires des échanges commerciaux entre les entreprises représente près de 70 % de l'ensemble des échanges commerciaux. Il est donc plus important que celui réalisé sur le marché des particuliers. C'est l'utilisation du produit plutôt que sa nature qui distingue le bien industriel du bien de consommation. Le marketing industriel se définit donc par apport aux marchés non par rapport aux produits ou services.

Le marketing industriel emprunte au marketing classique un certain nombre de techniques en les adaptant aux caractéristiques propres de ce type de marché et en utilisant des outils plus spécifiques pour atteindre les objectifs.

Il est nécessaire d’adapter l’approche commerciale à chaque marché cible. Il faut une synergie entre la force de vente et le marketing. Il faut, en outre, une meilleure analyse des besoins de la clientèle. Enfin, il faut un développement des relations publiques. On passe donc d’une approche tactique à une approche stratégique.

3.2. Caractéristiques du marketing industriel

En marketing industriel, la demande est le fruit de la demande d’autres produits ou services. Par exemple, la demande d’emballage pour produits alimentaires dépend du produit alimentaire lui-même.

Les clients se comptent souvent en dizaines même parfois en milliers mais rarement plus. D’où le risque de dépendance exagérée clients / fournisseurs.

En général le produit est plus complexe, mais surtout, il s’accompagne fréquemment d’assistance (installation, entretien, réparation), ou de fourniture de produits ou services complémentaires (ex : informatique, aéronautique...).

Le client est souvent dépendant de son fournisseur pour :

Le client a donc besoin du fournisseur et le fournisseur a besoin du client. C’est une relation durable, il y a un climat de confiance et donc cette relation s’entretien.

Toutes les fonctions de l’entreprise interagissent dans le processus de décision, plus qu’en marketing de grande consommation. Il y a une corrélation certaine entre la vente (prévisions, affaires en cours, évaluation du potentiel…) et le marketing. Le vendeur est un partenaire marketing plus qu’un exécutant.

Pour finir, ici, pas d’achat spontané comme c’est souvent le cas pour le consommateur. L’achat est dans le cas présent calculé et influencé par de très nombreux intervenants (finances, production, conseil, achat).

3.3. Complexité de l’échange industriel

3.3.1. Côté client (achat)

La situation d’achat est importante. Les types d’achat sont :

3.3.2. Côté vendeur (vente)

Il existe différents types de clients :

3.4. La communication

Il faut au préalable déterminer la cible. En effet, la question qui se pose est : Est-ce que mon produit s’adresse à des clients directs (Stratégie PUSH) ou est-ce qu’il s’adresse à des utilisateurs finaux (Stratégie PULL). En général il s’agit d’un mélange des deux, il faut donc adapter les deux stratégies précédemment citées en proportionnellement à l’objectif de la société. Prenons l’exemple de Gore-Tex, le produit est incorporé à la production de produits et ils font de la publicité pour le client final alors qu’ils ne leur en vendent pas directement. Le consommateur va acheter par exemple des produits ‘aigle’, car il y a du Gore-Tex dedans et qu’on retrouve le label.

3.5. Les moyens

3.5.1. Les moyens personnalisés

Le vendeur est l’un des vecteur essentiel de l’information concernant les faits, car même si cette information est aussi transmise par d’autres moyens (catalogues, etc.), il peut, le mieux, la personnaliser en fonction des attentes du client.

Le vendeur à plusieurs rôles :

3.5.2. Quelques moyens directs de contact

3.5.3. Les moyens indirects de contact

3.6. Résumé des outils de communication

La publicité La promotion des ventes Les relations publiques La vente
Messages presse, radio, télévision et cinéma Jeux et concours Dossiers de presse Démonstrations
Mailing Loteries Communiqués Réunions de vente
Catalogue Primes Séminaires Salons et foires
Prospectus (Imprimé sans adresse) Échantillons Rapport annuels
Journaux internes Stands Mécénat
Annuaires Bons de réductions Parrainage (sponsoring)
Affiches Coupons
Présentoirs (Publicité sur le lieux de vente) Remises
Symboles et logos Animation podium

Le plus souvent, les entreprises mélangent plusieurs de ces moyens dans leur stratégie marketing.

3.7. Les arguments de vente

Enfin, certains arguments peuvent être avancés lors d’une vente afin d’aboutir à une conclusion positive de la transaction. On peut notamment mettre en avant les points suivants :

3.8. Conclusion

En conclusion, l’utilisation d’un logiciel de simulation 3D constitue un outil de communication dans le domaine de la vente. Il peut constituer l’outil central de la stratégie, mais sera accompagné d’autres outils, que ce soit dans le domaine de la publicité ou des relations publiques.

Un logiciel de simulation pourrait être utilisé dans le cadre d’une stratégie de marketing virtuel qui est un mix entre la 3D, la communication et le marketing. Les principales stratégies de ce type de marketing sont la notoriété, l’image et le relationnel. La notoriété peut être mise en place au travers du Buzz marketing ou de la publicité virtuelle. Certaines sociétés investissent le milieu de la simulation virtuelle sociétale tel que Second Life pour renforcer leur image innovante et dynamique. Enfin cela permet d’établir une relation peut-être plus étroite entre l’entreprise et son marché cible.

On se dirige maintenant vers le marketing 2.0. Ce marketing est centré sur l’utilisation du Web 2.0. Il emploie des supports divers tels que les blogs, les flux RSS, les wikis, les réseaux sociaux ou de façon plus large tout ce qui constitue le web participatif ou communautaire dans la communication marketing d'une marque ou institution. Les marques et institutions peuvent soit :

En définitive, le marketing 2.0 est une réelle mutation du monde du marketing. Il constitue en effet une réponse aux diverses préoccupations des consommateurs, tant au niveau de la saturation publicitaire que de l’essoufflement du marketing traditionnel. Il apporte aussi des éléments de réponses aux professionnels, toujours en quête d’une meilleure efficacité. C’est l’apparition du Web2.0 qui a offert de nouveaux usages et donc une transposition au monde du marketing. Or on évoque déjà le terme de Web 3.0. Cela laisse entrevoir l’idée d’une nouvelle évolution conséquente du Web qui pourrait à son tour avoir des répercussions sur le marketing comme le Web 2.0 en a déjà eu.