Jacques Printz

  • L'architecture logicielle est un domaine assez récent du génie logiciel, dont le but est de trouver les meilleures solutions pour garantir la stabilité et la performance des logiciels. L'accent est particulièrement mis sur des phases de tests dès les premières étapes. Fort de son expérience pédagogique au CNAM et sur le terrain, l'auteur propose un ouvrage très axé sur la pratique et les conditions de conception d'un logiciel en entreprise. Il détaille sa méthode qui fait commencer les batteries de tests d'un logiciel très en amont.
    Cette troisième édition s'enrichit notamment de mises à jour rendues nécessaires par l'arrivée du cloud computing.

  • Cet ouvrage analyse le fonctionnement des projets informatiques dans leur contexte technologique, méthodologique, organisationnel et humain. L'ensemble environnement projet - projet constitue un écosystème qui a sa dynamique propre et ses instabilités. Le chef de projet doit maîtriser la mécanique projet dans son contexte spatiotemporel et humain. Il doit aussi anticiper les risques qui menacent la finalité de son projet et faire preuve d'agilité et de discipline, qualités essentielles à la maîtrise de la dynamique projet. Être agile, c'est maîtriser toutes les interactions de façon à réagir en mode quasi-réflexe, ce qui implique une grande discipline. Pour être efficace, l'équipe projet doit disposer d'un certain nombre de gestes qui requièrent une compétence et un savoir-faire décrits dans cet ouvrage. Ce livre expose une typologie de projets tirés de l'expérience et de la pratique des auteurs. Il présente également une évaluation des méthodes agiles les plus connues.

  • Les années 1990 sont une décennie de ruptures. Les machines de petite taille, puissantes, consommant peu d'énergie, se substituent aux mainframes, symboles des systèmes centralisés des années 1970-1980. L'organisation du système limite la puissance de traitement qui va se distribuer là où elle est requise.

    Grâce aux nouveaux réseaux, tout s'interconnecte en temps réel dans des architectures symétriques clients-serveurs ; en parallèle les systèmes se spécialisent. La modélisation systémique développe une vision plus robuste, plus résiliente, entre des entités qui sont elles-mêmes des systèmes à part entière ayant obligation de coopérer entre eux et avec leurs usagers.

    Architecture système et complexité présente cette notion sémantique nouvelle qui émerge au coeur de la systémique : l'interopérabilité. Le modèle d'échange d'information au sein du système de systèmes ainsi formé constitue le sujet central de cet ouvrage.

  • Le cyberespace qui se construit sous nos yeux n'aurait pas pu exis- ter sans l'invention d'une machine qui n'aurait jamais dû fonctionner tant les obstacles pour la construire étaient nombreux : l'or- dinateur, le computing instrument de von Neumann, que chacun ma- nipule quotidiennement, le smart- phone de la « Petite Poucette » de Michel Serres.
    Pour savoir où l'on va, mieux vaut savoir d'où l'on vient !
    Pour résoudre les problèmes aux- quels les démocraties étaient confrontées : il fallait calculer, vite, communiquer, vite, sans erreur, comprendre les pannes ; il fallait in- tégrer les technologies et coordon- ner les efforts de millions d'ingénieurs qui ont conçu et ex- ploité les systèmes sans lesquels nous n'aurions pas survécu aux to- talitarismes.
    Autant de problèmes d'éthique auxquels il est urgent de réfléchir.
    Von Neumann, peu de temps avant sa mort, en 1955, nous a donné une clé, dans son article au magazine Fortune, et intitulé Survivrons-nous à la technolo- gie ? : « Nous pouvons spécifier seulement les qualités hu- maines nécessaires: patience, flexibilité, intelligence ». Tel est le sujet des six chapitres de cet ouvrage.

  • Cet ouvrage est une réédition numérique d'un livre paru au XXe siècle, désormais indisponible dans son format d'origine.

  • The emergence of a true systemic science - the systemic one - capable of rigorously addressing the many problems posed by the design and management of the evolution of modern complex systems is therefore urgently needed if wants to be able to provide satisfactory answers to the many profoundly systemic challenges that humanity will have to face at the dawn of the third millennium. This emergence is of course not easy because one can easily understand that the development of the systemic is mechanically confronted with all the classical disciplines which can all pretend to bring part of the explanations necessary to the understanding of a system and which do not naturally see a good eye a new discipline claim to encompass them in a holistic approach ... The book of Jacques Printz is therefore an extremely important contribution to this new emerging scientific and technical discipline: it is indeed first of all one of the very few "serious" works published in French and offering a good introduction to the systemic. It gives an extremely broad vision of this field, taking a thread given by the architecture of systems, in other words by the part of the systemic that is interested in the structure of systems and their design processes, which allows everyone to fully understand the issues and issues of the systemic. We can only encourage the reader to draw all the quintessence of the masterful work of Jacques Printz which mixes historical reminders explaining how the systemic emerged, introduction to key concepts of the systemic and practical examples to understand the nature and the scope of the ideas introduced.

  • Les projets informatiques sont désormais développés dans le cadre d'un système existant. Ils doivent, in fine, s'intégrer en interaction avec d'autres projets, sur les infrastructures communes de l'entreprise et sans interrompre le service : c'est la notion d'usine logicielle.


    Estimation des projets de l'entreprise numérique s'intéresse particulièrement à l'analyse des coûts d'intégration. Un modèle original d'estimation de ces coûts est proposé assurant l'équilibrage des quatre grandeurs fondamentales : coût, qualité, fonctionnalité et délai. Cet ouvrage bénéficie des travaux effectués par le groupe de travail Intégration & Complexité de l'association CESAMES, en relation avec la chaire X-ParisTech, ce qui a permis de valider le modèle avec les industriels participants. Il présente en détail le modèle COCOMO et dresse les grandes lignes de la méthode de comptage par points de fonctions. Une étude de cas basée sur les systèmes C4ISTAR illustre l'utilisation de ces méthodes dans un contexte de systèmes réels de grande complexité.

  • Cet ouvrage analyse le fonctionnement des projets informatiques dans leur contexte technologique, méthodologique, organisationnel et humain. L'ensemble ""environnement projet"" - ""projet"" constitue un écosystème qui a sa dynamique propre et ses instabilités. Le chef de projet doit maîtriser la mécanique projet dans son contexte spatiotemporel et humain. Il doit aussi anticiper les risques qui menacent la finalité de son projet et faire preuve d'agilité et de discipline, qualités essentielles à la maîtrise de la dynamique projet. Être agile, c'est maîtriser toutes les interactions de façon à réagir en mode quasi-réflexe, ce qui implique une grande discipline. Pour être efficace, l'équipe projet doit disposer d'un certain nombre de ""gestes"" qui requièrent une compétence et un savoir-faire décrits dans cet ouvrage. Ce livre expose une typologie de projets tirés de l'expérience et de la pratique des auteurs. Il présente également une évaluation des méthodes agiles les plus connues.

  • L'architecture logicielle est un domaine assez récent du génie logiciel, dont le but est de trouver les meilleures solutions pour garantir la stabilité et la performance des logiciels. l'accent est particulièrement mis sur des phases de tests dès les premières étapes. fort de son expérience pédagogique au cnam et sur le terrain, l'auteur propose un ouvrage très axé sur la pratique et les conditions de conception d'un logiciel en entreprise. il détaille sa méthode qui fait commencer les batteries de tests d'un logiciel très en amont.
    Cette deuxième édition s'enrichit notamment d'un nouveau chapitre sur ';la logique de l'architecte'; et de compléments sur les architectures soa

  • Fondée en 1941 par Paul Angoulvent, traduite en 40 langues, diffusée pour les éditions françaises à plus de 160 millions d'exemplaires, la collection " Que sais-je ? ", est aujourd'hui l'une des plus grandes bases de données internationales construite, pour le grand public, par des spécialistes.
    La politique d'auteurs, la régularité des rééditions, l'ouverture aux nouvelles disciplines et aux nouveaux savoirs, l'universailité des sujets traités et le pluralisme des approches constituent un réseau d'informations et de connaissance bien adapté aux exigences de la culture contemporaine.

  • Cet ouvrage traite de la mise en oeuvre des modèles d'estimation des coûts. Il présente trois techniques, les plus couramment utilisées pour estimer les projets logiciels sur des bases sérieuses. Le premier modèle appelé vade-mecum du chef de projet, est fondé sur l'expérience intuitive et concrète de très nombreux chefs de projets. C'est un modèle qui fixe les ordres de grandeur d'une estimation. Le second modèle, COCOMO, récemment mis à jour avec COCOMO II, est présenté en détail. C'est le plus complet de tous les modèles d'estimation et un must qui doit faire partie de la boîte à outils de tout chef de projet. La méthode de comptage des points de fonctions, basée sur les flux de données, permet une analyse quantitative dès les phases expression de besoin, spécification fonctionnelle, donc très en amont dans le cycle de développement.

  • Le management actuel utilise fort peu de modèles d'estimation des coûts des projets logiciel car les formules et méthodes de comptage que l'on y trouve paraissent sans rapport avec la physique sous-jacente de l'information et que les modèles paraissent trop éloignés des réalités pour un chef de projet. Le but de cet ouvrage est de montrer qu'entre ces deux extrêmes, il y a une position médiane. Ce volume explique comment on peut abstraire de la réalité des projets un certain nombre d'invariants structurels (l'architecture du logiciel, la méthodologie de développement, la qualité de service requise, les fonctions à réaliser) à partir desquels on va pouvoir bâtir un modèle effectif et analyser l'impact des aléas liés à la matière humaine du projet.

  • Puissance et limites des systèmes informatisés s'attaque à un double problème jamais abordé et pourtant central au développement de tous les systèmes informatisés (commande-contrôle, temps-réel, système d'information ...
    ). Le premier est celui des limites technologiques des ordinateurs et des logiciels systèmes, le second, celui des limitations liées aux erreurs humaines et organisationnelles dans la conception des programmes informatiques.

    L'ouvrage bouscule un grand nombre d'idées reçues et apporte une connaissance précise des limitations de l'informatique tout en proposant une approche raisonnée et constructive de l'ingénierie des systèmes informatisés.
    Les deux axes de cette approche -architecture et méthodologie - sont les bases d'une réflexion sur les méthodes et les outils à mettre en oeuvre pour permettre une meilleure utilisation et une plus grande maîtrise de l'inévitable complexité informatique.

    Il développe une réflexion sur les savoirs et savoir-faire qu'il faut enseigner et pratiquer, si l'on veut garder le contrôle du processus, suivant cinq systèmes en étroite interaction - le système de développement, - le système d'entretien et de maintenance, - le système informatique proprement dit, logiciel et matériel, - le système cible, - le système social qui englobe le tout.

  • Fondée en 1941 par Paul Angoulvent, traduite en 40 langues, diffusée pour les éditions françaises à plus de 160 millions d'exemplaires, la collection " Que sais-je ? ", est aujourd'hui l'une des plus grandes bases de données internationales construite, pour le grand public, par des spécialistes.
    La politique d'auteurs, la régularité des rééditions, l'ouverture aux nouvelles disciplines et aux nouveaux savoirs, l'universailité des sujets traités et le pluralisme des approches constituent un réseau d'informations et de connaissance bien adapté aux exigences de la culture contemporaine.

  • L'architecture logicielle est un domaine assez récent du génie logiciel, dont le but est de trouver les meilleures solutions pour garantir la stabilité et la performance des logiciels. L'accent est particulièrement mis sur des phases de tests dès les premières étapes. Fort de son expérience pédagogique au CNAM et sur le terrain, l'auteur propose un ouvrage très axé sur la pratique et les conditions de conception d'un logiciel en entreprise. Il détaille sa méthode qui fait commencer les batteries de tests d'un logiciel très en amont.

  • Pratique des tests logiciels ; améliorer la qualité par les tests, gérer une campagne de test ; préparer la certification ISTQB Nouv.

    Ce livre s'adresse aux développeurs, concepteurs et intégrateurs de logiciels ainsi qu'aux chefs de projets et aux architectes.
    Avec la montée en charge du big data, et du cloud computing, la fiabilité des logiciels est plus importante que jamais.
    Concevoir du premier coup et sans aucune erreur un logiciel qui comporte plusieurs millions de lignes de code et plusieurs centaines de composants est évidemment impossible. La nécessité de faire des tests au cours des différentes phases de conception paraît évidente et pourtant, dans la pratique, les tests sont souvent négligés et relégués au second plan.
    L'objectif de cet ouvrage est triple :
    -- donner les bases et les bonnes pratiques pour concevoir et mener à bien des tests ;
    -- fournir un référentiel en termes de méthodes et de vocabulaire ;
    -- préparer la certification ISTQB du métier de testeur.
    Cette quatrième édition rend compte des évolutions dans la pratique des tests logiciels au cours des trois dernières années.

  • Ce livre s'adresse aux développeurs, concepteurs et intégrateurs de logiciels ainsi qu'aux chefs de projets et aux architectes.
    Avec la montée en charge du big data, et du cloud computing, la fiabilité des logiciels est plus importante que jamais.
    Concevoir du premier coup et sans aucune erreur un logiciel qui comporte plusieurs millions de lignes de code et plusieurs centaines de composants est évidemment impossible. La nécessité de faire des tests au cours des différentes phases de conception paraît évidente et pourtant, dans la pratique, les tests sont souvent négligés et relégués au second plan.
    L'objectif de cet ouvrage est triple :
    -- donner les bases et les bonnes pratiques pour concevoir et mener à bien des tests ;
    -- fournir un référentiel en termes de méthodes et de vocabulaire ;
    -- préparer la certification ISTQB du métier de testeur.
    Cette troisième édition développe plus avant les notions de générations automatiques de cas de tests en vue de couvertures, consacre un chapitre au tests des services web et à leur automatisation, ainsi qu'un nouveau chapitre dédié au tests des applications embarquées et certifiées.

  • Pour qu'un logiciel remplisse correctement les objectifs pour lesquels il a été conçu, il doit être soumis à différentes séries de tests tout au long de sa conception et de sa mise en service (tests unitaires, tests fonctionnels, tests d'intégration...). ce livre a un triple objectif :
    - tout d'abord il vise à donner aux futurs développeurs (étudiants, élèves ingénieurs...) et chefs de projet les bases indispensables pour mener des tests tout au long du cycle de vie du logiciel.
    - ensuite il cherche à donner aux équipes de testeurs une référence et des méthodes.
    - enfin il prépare au passage de la certification istqb/cftl du métier de testeur.

  • Ce livre s'adresse aux développeurs, concepteurs et intégrateurs de logiciels ainsi qu'aux chefs de projets et aux architectes.
    Avec la montée en charge du big data, et du cloud computing, la fiabilité des logiciels est plus importante que jamais. Concevoir du premier coup et sans aucune erreur un logiciel qui comporte plusieurs millions de lignes de code et plusieurs centaines de composants est évidemment impossible. La nécessité de faire des tests au cours des différentes phases de conception paraît évidente et pourtant, dans la pratique, les tests sont souvent négligés et relégués au second plan.

    L'objectif de cet ouvrage est triple :
    - donner les bases et les bonnes pratiques pour concevoir et mener à bien des tests ;
    /> - fournir un référentiel en termes de méthodes et de vocabulaire ;
    - préparer la certification ISTQB du métier de testeur.

    Cette nouvelle édition s'enrichit d'un nouveau chapitre sur les familles d'outils les plus récents et de passages complémentaires sur le test des applications web (dites transactionnelles).

empty