L'évaluation de la dérive des instruments "mesureur" est une question majeure en métrologie, tant pour l'évaluation des incertitudes de mesure que pour celle des périodicités. Nous avons proposé dans le cadre du CIM 2019 une approche innovante permettant de traiter de cette question de façon statistique.
Explications sur le fascicule AFNOR FD X 07-014Jean-Michel POU
Cette conférence a été présentée en 2008, dans le cadre du salon MESUREXPO. Elle décrit les 3 méthodes proposées dans le fascicule AFNOR FD X 07-014 pour l'optimisation des périodicités.
J'ai présenté hier cette conférence concernant un outil innovant en matière de justification du raccordement des instruments de mesure. Après de années d'étalonnages, les industriels disposeront bientôt d'une autre approche : les Comparaisons Inter-Instruments (C.2.I)
Quelques exemples de calcul d'incertitudes (GUM et GUMS1)Jean-Michel POU
J'ai animé, à Pretoria dans le cadre du CAFMET 2014, un tutorial sur le calcul d'incertitudes de mesure. Tous les détails des calculs sont disponibles à la rubrique "publication" du site de Delta Mu (www.deltamu,fr) : 6 articles en tout pour traiter de la question de "A à Z"...
Exemple de Smart Metrology dans un laboratoire d'étalonnage (Conférence CIM 2...Jean-Michel POU
Le raccordement des étalons de référence est un acte fondateur dans les laboratoires d'étalonnage. Nous montrons ici qu'il est possible de connaitre la valeur des étalons sans les étalonner !!! Et cet exemple est transposable à bien d'autres cas que les cales étalons. Même s'il est difficile de concevoir de ne plus étalonner ses références, on peut facilement s'assurer de leur fiabilité, donc améliorer la gestion de leurs étalonnages et, ainsi, faire mieux et moins cher !
Cette conférence a été présentée en 2013, dans le cadre du Congrès Africain de Métrologie (CAFMET) à Marrakech. L'objectif était de montrer, sur quelques exemples, comment les outils statistiques, lorsqu'ils sont bien maitrisés, peuvent permettre d'améliorer la pertinence de la fonction métrologie tout en diminuant ses coûts.
Explications sur le fascicule AFNOR FD X 07-014Jean-Michel POU
Cette conférence a été présentée en 2008, dans le cadre du salon MESUREXPO. Elle décrit les 3 méthodes proposées dans le fascicule AFNOR FD X 07-014 pour l'optimisation des périodicités.
J'ai présenté hier cette conférence concernant un outil innovant en matière de justification du raccordement des instruments de mesure. Après de années d'étalonnages, les industriels disposeront bientôt d'une autre approche : les Comparaisons Inter-Instruments (C.2.I)
Quelques exemples de calcul d'incertitudes (GUM et GUMS1)Jean-Michel POU
J'ai animé, à Pretoria dans le cadre du CAFMET 2014, un tutorial sur le calcul d'incertitudes de mesure. Tous les détails des calculs sont disponibles à la rubrique "publication" du site de Delta Mu (www.deltamu,fr) : 6 articles en tout pour traiter de la question de "A à Z"...
Exemple de Smart Metrology dans un laboratoire d'étalonnage (Conférence CIM 2...Jean-Michel POU
Le raccordement des étalons de référence est un acte fondateur dans les laboratoires d'étalonnage. Nous montrons ici qu'il est possible de connaitre la valeur des étalons sans les étalonner !!! Et cet exemple est transposable à bien d'autres cas que les cales étalons. Même s'il est difficile de concevoir de ne plus étalonner ses références, on peut facilement s'assurer de leur fiabilité, donc améliorer la gestion de leurs étalonnages et, ainsi, faire mieux et moins cher !
Cette conférence a été présentée en 2013, dans le cadre du Congrès Africain de Métrologie (CAFMET) à Marrakech. L'objectif était de montrer, sur quelques exemples, comment les outils statistiques, lorsqu'ils sont bien maitrisés, peuvent permettre d'améliorer la pertinence de la fonction métrologie tout en diminuant ses coûts.
La norme FD X 07-014 présente 3 méthodes d'optimisation des périodicités d'étalonnage : la méthode de la dérive, le rapport de périodicité et la méthode OPPERET.
Un cours bien détaillé qui traite les filtres analogiques 1er et 2ème ordres.
Pour plus d'informations je suis entièrement disponible.
Sabirhamzaa@gmail.com
Pourquoi le concept de capabilité est insuffisantJean-Michel POU
Cette présentation, exposée dans le cadre du Congrès International de Métrologie de 2007 à Lille (10 ans déjà !), décrit l'insuffisance de la notion de "capabilité" d'un processus de mesure pour déclarer la conformité d'une entité. Elle explique les principes de la stratégie des Bandes de Garde désormais préconisées par la norme NF ISO/CEI Guide 98-4 de 2013 ... Elle ne traite pas de la question du risque spécifique.
Étude de la mesure de l’Information selon les théories de Claude Shannon et ses applications dans deux domaines :
- Compression de données
- Détection et correction d’erreurs
Optimisation des bandes de garde, suivant norme ISO/IEC Guide 98-4Jean-Michel POU
Je viens de présenter cette conférence à Pretoria, dans le cadre du CAFMET. Le but principal est de mettre en évidence les conséquences des bandes de garde, notamment en matière de Risque Fournisseur et de proposer une vision différente : Minimisation de la somme pondérée des risques Client et Fournisseur
La métrologie n'est pas ce que vous croyez, elle peut vous faire gagner beauc...Jean-Michel POU
La métrologie n'est pas valorisée au niveau qu'elle mérite dans l'entreprise. Pour des raisons historiques, son véritable potentiel n'a pas encore été exploité. Cette présentation a pour objectif de présenter le "potentiel caché" de la métrologie ...
Ce cours introduira les étudiants à l'analyse numérique. Il aborde les thèmes suivants :
- Introduction au calcul numérique,
- Résolution des équations numériques,
- Interpolation polynomiale,
- Dérivation et intégration numériques,
- Résolution des équations différentielles ordinaires
- Résolution de systèmes linéaires.
A chaque fois, les notions présentées sont illustrées par des exemples pratiques. Des exercices
et problèmes sont aussi proposés afin de confronter les étudiants aux multiples difficultés du
calcul numérique.
The document provides an introduction to data envelopment analysis (DEA). DEA is a method used to evaluate the efficiency of decision making units (DMUs) that may have multiple inputs and outputs. It determines the relative efficiency of each DMU by solving a series of linear programming problems. The document discusses the constant returns to scale (CRS) and variable returns to scale (VRS) models, and provides an example to formulate a DEA problem using the CRS assumption to calculate efficiency scores for four mobile phones as DMUs based on price, storage space, camera quality, and looks.
La norme FD X 07-014 présente 3 méthodes d'optimisation des périodicités d'étalonnage : la méthode de la dérive, le rapport de périodicité et la méthode OPPERET.
Un cours bien détaillé qui traite les filtres analogiques 1er et 2ème ordres.
Pour plus d'informations je suis entièrement disponible.
Sabirhamzaa@gmail.com
Pourquoi le concept de capabilité est insuffisantJean-Michel POU
Cette présentation, exposée dans le cadre du Congrès International de Métrologie de 2007 à Lille (10 ans déjà !), décrit l'insuffisance de la notion de "capabilité" d'un processus de mesure pour déclarer la conformité d'une entité. Elle explique les principes de la stratégie des Bandes de Garde désormais préconisées par la norme NF ISO/CEI Guide 98-4 de 2013 ... Elle ne traite pas de la question du risque spécifique.
Étude de la mesure de l’Information selon les théories de Claude Shannon et ses applications dans deux domaines :
- Compression de données
- Détection et correction d’erreurs
Optimisation des bandes de garde, suivant norme ISO/IEC Guide 98-4Jean-Michel POU
Je viens de présenter cette conférence à Pretoria, dans le cadre du CAFMET. Le but principal est de mettre en évidence les conséquences des bandes de garde, notamment en matière de Risque Fournisseur et de proposer une vision différente : Minimisation de la somme pondérée des risques Client et Fournisseur
La métrologie n'est pas ce que vous croyez, elle peut vous faire gagner beauc...Jean-Michel POU
La métrologie n'est pas valorisée au niveau qu'elle mérite dans l'entreprise. Pour des raisons historiques, son véritable potentiel n'a pas encore été exploité. Cette présentation a pour objectif de présenter le "potentiel caché" de la métrologie ...
Ce cours introduira les étudiants à l'analyse numérique. Il aborde les thèmes suivants :
- Introduction au calcul numérique,
- Résolution des équations numériques,
- Interpolation polynomiale,
- Dérivation et intégration numériques,
- Résolution des équations différentielles ordinaires
- Résolution de systèmes linéaires.
A chaque fois, les notions présentées sont illustrées par des exemples pratiques. Des exercices
et problèmes sont aussi proposés afin de confronter les étudiants aux multiples difficultés du
calcul numérique.
The document provides an introduction to data envelopment analysis (DEA). DEA is a method used to evaluate the efficiency of decision making units (DMUs) that may have multiple inputs and outputs. It determines the relative efficiency of each DMU by solving a series of linear programming problems. The document discusses the constant returns to scale (CRS) and variable returns to scale (VRS) models, and provides an example to formulate a DEA problem using the CRS assumption to calculate efficiency scores for four mobile phones as DMUs based on price, storage space, camera quality, and looks.
Incremental Volumetric Remapping Method - Analysis and Error EvaluationAntónio J. Baptista
This document analyzes and evaluates the error of an incremental volumetric remapping method. Two tests are performed: 1) remapping of rotated circular meshes, and 2) remapping between meshes with different discretizations. The incremental volumetric remapping method achieves very low and stable error even with increasing remapping operations, with better accuracy-computation efficiency tradeoff compared to extrapolation-interpolation and moving least squares interpolation methods. The incremental volumetric remapping method is concluded to be reliable and robust for critical remapping situations.
Meet up French Video Game Analyst
April 2016
Company : Dataiku
Speaker: Pierre Guitterrez, Data Scientist
Prédire qu'un joueur va partir c'est bien. Agir sur lui uniquement dans le cas où ça sera utile, c'est mieux.
Théorie et pratique sur les modèles d'uplift via l'exemple de la prédiction du churn à Ankama.
This document discusses total quality management and continuous quality improvement. It covers quality planning, quality control, and quality improvement. Quality planning involves understanding customer needs. Quality control includes inspection, process control, and correction. Quality improvement aims to establish infrastructure. Common quality control tools are discussed like check sheets, Pareto charts, why-why diagrams, flowcharts, and control charts. Problem solving uses the plan-do-study-act cycle. Quality circles link these approaches.
Business Process Monitoring and MiningMarlon Dumas
Lecture delivered at the Second Latin-American Summer School in Business Process Management, Bogota, Colombia, 28 June 2017 - http://ii-las-bpm.uniandes.edu.co/
Bridging the Gap: Machine Learning for Ubiquitous Computing -- EvaluationThomas Ploetz
Tutorial @Ubicomp 2015: Bridging the Gap -- Machine Learning for Ubiquitous Computing (evaluation session).
A tutorial on promises and pitfalls of Machine Learning for Ubicomp (and Human Computer Interaction). From Practitioners for Practitioners.
Presenter: Nils Hammerla <n.hammerla@gmail.com>
video recording of talks as they wer held at Ubicomp:
https://youtu.be/LgnnlqOIXJc?list=PLh96aGaacSgXw0MyktFqmgijLHN-aQvdq
This document discusses topics related to quantitative research methods and data analytics, including simple linear regression. It outlines course assignments, with the final coursework assignment involving selecting a topic of interest, collecting related data, applying quantitative research methods learned in the course to analyze the data in RStudio, and writing a 2000-word report on the findings. The report should include sections on the introduction, data, results, and conclusion. Assessment will be based on rubrics evaluating these sections. The document also provides overviews of key concepts like bootstrapping, introduction to regression, and simple linear regression.
This document discusses measurement system analysis (MSA), including attribute MSA. It defines key MSA terms and describes the importance, types, and steps of attribute MSA. The document provides examples of calculating kappa value, miss rate, and false rate from attribute MSA data to evaluate measurement system capability. Reasons for attribute MSA failure include issues with appraisers or inspection processes.
This document discusses A/B testing at SweetIM, an interactive content and search service provider. It emphasizes the importance of proper statistical analysis of A/B test results. Specifically, it recommends using the negative binomial distribution instead of the Poisson distribution to analyze count data from A/B tests, since the Poisson assumption of equal mean and variance is often violated for internet traffic data. The document provides examples of A/B and A/A tests conducted at SweetIM on search and content features. It also notes the need to check for non-human activity like bots that could bias test results.
Location based sales forecast for superstoresThaiQuants
The document describes the development of a sales forecasting application for retail hypermarkets using simulation and genetic algorithm techniques. The objectives are to forecast sales for new potential hypermarkets more accurately than current methods, which involve subjective judgments. The application will use parameters like store size, location, demographics to forecast sales. Genetic algorithm optimization will be applied to determine the optimal weights for different parameter groups to improve forecast accuracy beyond 90%. This addresses limitations of current practices that assume equal weighting of all parameters.
Control charts are a statistical tool used to determine if a process is in or out of control. There are two main types: variable control charts, which deal with measurable items, and attribute control charts, which factor in quality attributes. Control charts were developed in the 1920s and include charts like X-bar, R, P, C, and U charts. Processes can be determined to be in or out of control based on whether data points fall within control limits. Calculating average values and control limits is important for understanding process capability and improvement.
Control charts are a statistical tool used to determine if a process is in or out of control. There are two main types: variable control charts, which deal with measurable items, and attribute control charts, which factor in quality attributes. Control charts were developed in the 1920s and include charts like X-bar, R, P, C, and U charts. Processes can be determined to be in or out of control based on whether data points fall within control limits. Calculating average values and control limits is important for understanding process capability. Control charts are useful for process improvement.
This document provides an overview of regression analysis and compares regression to neural networks. It defines regression as estimating the relationship between variables. The main types covered are linear, nonlinear, simple, multiple and logistic regression. Examples are given to illustrate simple linear regression and least squares methods. The document also discusses best practices like avoiding overfitting and dealing with multicollinearity. Finally, it provides examples comparing regression and deep learning approaches.
This document outlines the steps of a Lean Six Sigma project to improve an unspecified process. It includes defining the project goals and scope, measuring current performance, analyzing data to identify root causes, improving the process by addressing key causes, and implementing controls. The process involves identifying customer needs, determining success metrics, validating measurement systems, testing hypotheses, and calculating new capability levels to prove the success of changes on short-term performance.
This paper applies inverse transform sampling to sample training points for surrogate models. Inverse transform sampling uniformly generates a sequence of real numbers ranging from 0 to 1 as the probabilities at sample points. The coordinates of the sample points are evaluated using the inverse functions of Cumulative Distribution Functions (CDF). The inputs to surrogate models are assumed to be independent random variables. The sample points obtained by inverse transform sampling can effectively represent the frequency of occurrence of the inputs. The distributions of inputs to the surrogate models are fitted to their observed data. These distributions are used for inverse transform sampling. The sample points have larger densities in the regions where the Probability Density Functions (PDF) are higher. This sampling approach ensures that the regions with higher densities of sample points are more prevalent in the observations of the random variables. Inverse transform sampling is applied to the development of surrogate models for window performance evaluation. The distributions of the following three climatic conditions are fitted: (i) the outside temperature, (ii) the wind speed, and (iii) the solar radiation. The sample climatic conditions obtained by the inverse transform sampling are used as training points to evaluate the heat transfer through a generic triple pane window. Using the simulation results at the sample points, surrogate models are developed to represent the heat transfer through the window as a function of the climatic conditions. It is observed that surrogate models developed using the inverse transform sampling can provide higher accuracy than that developed using the Sobol sequence directly for the window performance evaluation.
This document provides information about statistical process control (SPC) from Dr. Rick Edgeman, a professor and chair of statistics. It discusses using SPC to monitor and improve processes over time through the use of control charts, which distinguish normal variation from abnormal causes. Control charts can be used to monitor variables, attributes, proportions, and patterns over sequential time periods to help processes perform consistently.
The six step problem solving process model involves 1) identifying concerns and problems, 2) analyzing the problem, 3) evaluating alternatives, 4) proposing and implementing a solution, 5) analyzing the outcome, and 6) improving the process. Tools like brainstorming, force field analysis, cause and effect diagrams, and benchmarking can aid various steps of the problem solving process. Effective communication skills like questioning and listening are also important for problem solving.
Beyond Churn Prediction : An Introduction to uplift modelingPierre Gutierrez
These slides are from a talk I at the papis conference in Boston in 2016. The main subject is uplift modelling. Starting from a churn model approach for an e-gaming company, we introduce when to apply uplift methods, how to mathematically model them, and finally, how to evaluate them.
I tried to bridge the gap between causal inference theory and uplift theory, especially concerning how to properly cross validate the results. The notation used is the one from uplift modelling.
Similar to Evaluate and quantify the drift of a measuring (20)
Comment analyser des données multivariées pour suivre une productionJean-Michel POU
Le pilotage des procédés de production est une discipline délicate qui engage non seulement la qualité de la production mais également son efficience. Dans de nombreux procédés, beaucoup de facteurs interagissent pour atteindre l'objectif et il n'est pas facile de comprendre leurs interactions lorsqu'on regarde les paramètres un à un. Cette conférence propose une approche originale pour prendre en compte le caractère multivarié de la question ...
La conformité des entités manufacturées est une question au cœur de la métrologie et de la qualité. J'ai proposé hier une solution dans le cadre du XXème Congrès International de la Métrologie qui se tient à Lyon pendant Global Industrie. Il s'agit de prendre en compte non seulement le fait que la conformité des productions industrielles ne peut être établie qu'à partir d'échantillons dont toutes les caractéristiques doivent être conformes simultanément. Il convient également, évidemment, de prendre en compte les incertitude de mesure associées inexorablement aux mesures des échantillons. Autrement dit, la situation n'est pas simple !
L'AFNOR vient d'éditer (Novembre 2018) le fascicule FD X 07-039 (Rôle de l'incertitude de mesure dans l'évaluation de la conformité - Mise en oeuvre de la norme NF ISO/IEC Guide 98-4 - Illustration au travers d'études de cas industriels. Cette présentation reprend l'un des exemples du fascicule.
La norme NF ISO/CEI GUIDE 98-4 nous explique comment prendre en compte l'incertitude de mesure dans la déclaration de conformité. Contrairement à la vision traditionnelle, l'incertitude de mesure n'est pas le seul paramètre qui permet de calculer le risque. Lorsque cela est possible, il faut également connaitre l'a priori, c'est à dire la loi de probabilité des valeurs vraies (sachant le mesurande). Et la connaissance de l'a priori peut nous amener très loin, jusqu'à la suppression des vérifications périodiques !
Digitalisation des entreprises : pour faire quoi, et quand ?Jean-Michel POU
BPI France a réalisé en 2017 une enquête qui a montré que 80% des chefs de PME/TPE ne se sentaient pas concernés ... Ces quelques slides pour que les convaincre qu'au contraire, il est plus que temps d'y aller !
Congrès International de Métrologie - Paris 2017Jean-Michel POU
The traceability to reference standards is a founding act in calibration laboratories. We show here that it is possible to know the value of the standards without calibrating them !!! And this example can be transposed to many other cases than gauge blocks. Even if it is difficult to accept the idea of no longer calibrating its references, it is easy to ensure their reliability, improve the management of their calibrations and, then, make better and cheaper!
En tant qu'ambassadeur pour la Région Auvergne Rhône-Alpes, j'ai eu l'honneur de présenter l'Alliance Industrie du Futur le 9 juin, à Clermont-Fd, lors de la journée consacrée au lancement du livre "Smart Metrology, de la métrologie des instruments à la métrologie des décisions"...
L'Alliance Industrie du Futur dignement représentée à la manifestation organisée à Lyon le 15 Juin dans le cadre des 4 moteurs de l'Europe. Alain Saniard (CETIM) a animé un atelier sur l'initiation dune démarche de modernisation "Industrie du Futur"
Ce PowerPoint présente en quelques slides l'histoire de Deltamu depuis sa création. Il s'agit de retracer les grandes étapes de l'histoire de l'entreprise, étapes qui la conduisent à la Smart Metrology, dans un esprit de revalorisation du métier de métrologue dans l'entreprise.
Présentation de la Smart Metrology - 9 Juin 2016 - Clermont-FdJean-Michel POU
Ce PowerPoint a été présenté le 9 Juin 2016, lors de la grande manifestation organisée par Deltamu dans le cadre du lancement du livre "Smart Metrology, de la métrologie des instruments à la métrologie des décisions. Il présente les enjeux de la Smart Metrology.
Inférence bayésienne : Une approche enthousiasmante pour l'exploitation des i...Jean-Michel POU
Focalisé sur l'incertitude de mesure, le métrologue en oublie parfois que c'est surtout la valeur "vraie" qui intéresse les utilisateurs. En s'appuyant sur les propriétés de la valeur mesurée, et sous réserves d'avoir quelques informations préalables sur les valeurs vraies possibles, il est possible d'améliorer la fiabilité des résultats de mesure ...
La métrologie dans les L.A.B.M : faire ou faire faire ?Jean-Michel POU
J'ai présenté cette conférence, sous la forme d'un poster, dans le cadre du congrès EURMEDLAB 2015, à Paris, Palais des Congrès. En quelques slides, je tente d'expliquer que la solution des étalonnages/vérifications internes, pour les L.A.B.M, est probablement une solution efficiente pour répondre aux exigences de la norme NF EN ISO 15189 et au COFRAC.
Le suivi des process de production fait l'objet d'une littérature abondante. le SPC (MSP) est une technique qui a pénétré le monde des process "séries". Force est néanmoins de constater que la mesure, et les incertitudes associées, sont rarement considérées. Et pourtant ...
Métrologie : Jusqu'où ne pas aller trop loin ?Jean-Michel POU
La norme ISO 15189 pose la question de la métrologie dans les laboratoires d'analyse de biologie médicale (L.A.B.M). Cette présentation retrace l'historique de la pensée métrologie traditionnelle (Vérification périodique suivant des normes établies). Elle pose ensuite les véritables questions à traiter et propose une stratégie efficiente dans laquelle la métrologie peut devenir un outil de performance ...
Logiciel de gestion de parcs d'instruments de mesure : Quelles fonctionnalité...Jean-Michel POU
Une conférence présentée en 2008 sur les fonctionnalités légitimes que chaque métrologue d'entreprise devrait avoir à sa disposition sur son logiciel "Métrologie" dans le cadre de la gestion de son parc d'instruments de mesure ...
Ecart type experimental : quelle formule choisir ?Jean-Michel POU
Je viens de publier un billet sur mon blog qui traite de l'estimation d'un intervalle de confiance pour un écart-type (Suivre http://www.lametrologieautrement.com). Cela m'a rappelé une ancienne conférence, présentée en 2003 dans le cadre d'un congrès international de Métrologie. J'ai relu avec beaucoup de tolérance ce travail "d'il y a 10 ans", mais que de progrès réalisés depuis ...
Pourquoi avons nous tant de mal à appréhender le concept d'incertitude de mes...Jean-Michel POU
J'ai eu l'occasion de présenter cette conférence lors du congrès international de métrologie de Toulon, en 2003. J'ai une tendresse particulière pour cette présentation qui me semble, plus de 10 après, terriblement d'actualité !
Ocean lotus Threat actors project by John Sitima 2024 (1).pptxSitimaJohn
Ocean Lotus cyber threat actors represent a sophisticated, persistent, and politically motivated group that poses a significant risk to organizations and individuals in the Southeast Asian region. Their continuous evolution and adaptability underscore the need for robust cybersecurity measures and international cooperation to identify and mitigate the threats posed by such advanced persistent threat groups.
Webinar: Designing a schema for a Data WarehouseFederico Razzoli
Are you new to data warehouses (DWH)? Do you need to check whether your data warehouse follows the best practices for a good design? In both cases, this webinar is for you.
A data warehouse is a central relational database that contains all measurements about a business or an organisation. This data comes from a variety of heterogeneous data sources, which includes databases of any type that back the applications used by the company, data files exported by some applications, or APIs provided by internal or external services.
But designing a data warehouse correctly is a hard task, which requires gathering information about the business processes that need to be analysed in the first place. These processes must be translated into so-called star schemas, which means, denormalised databases where each table represents a dimension or facts.
We will discuss these topics:
- How to gather information about a business;
- Understanding dictionaries and how to identify business entities;
- Dimensions and facts;
- Setting a table granularity;
- Types of facts;
- Types of dimensions;
- Snowflakes and how to avoid them;
- Expanding existing dimensions and facts.
AI 101: An Introduction to the Basics and Impact of Artificial IntelligenceIndexBug
Imagine a world where machines not only perform tasks but also learn, adapt, and make decisions. This is the promise of Artificial Intelligence (AI), a technology that's not just enhancing our lives but revolutionizing entire industries.
Building Production Ready Search Pipelines with Spark and MilvusZilliz
Spark is the widely used ETL tool for processing, indexing and ingesting data to serving stack for search. Milvus is the production-ready open-source vector database. In this talk we will show how to use Spark to process unstructured data to extract vector representations, and push the vectors to Milvus vector database for search serving.
Main news related to the CCS TSI 2023 (2023/1695)Jakub Marek
An English 🇬🇧 translation of a presentation to the speech I gave about the main changes brought by CCS TSI 2023 at the biggest Czech conference on Communications and signalling systems on Railways, which was held in Clarion Hotel Olomouc from 7th to 9th November 2023 (konferenceszt.cz). Attended by around 500 participants and 200 on-line followers.
The original Czech 🇨🇿 version of the presentation can be found here: https://www.slideshare.net/slideshow/hlavni-novinky-souvisejici-s-ccs-tsi-2023-2023-1695/269688092 .
The videorecording (in Czech) from the presentation is available here: https://youtu.be/WzjJWm4IyPk?si=SImb06tuXGb30BEH .
Skybuffer SAM4U tool for SAP license adoptionTatiana Kojar
Manage and optimize your license adoption and consumption with SAM4U, an SAP free customer software asset management tool.
SAM4U, an SAP complimentary software asset management tool for customers, delivers a detailed and well-structured overview of license inventory and usage with a user-friendly interface. We offer a hosted, cost-effective, and performance-optimized SAM4U setup in the Skybuffer Cloud environment. You retain ownership of the system and data, while we manage the ABAP 7.58 infrastructure, ensuring fixed Total Cost of Ownership (TCO) and exceptional services through the SAP Fiori interface.
Have you ever been confused by the myriad of choices offered by AWS for hosting a website or an API?
Lambda, Elastic Beanstalk, Lightsail, Amplify, S3 (and more!) can each host websites + APIs. But which one should we choose?
Which one is cheapest? Which one is fastest? Which one will scale to meet our needs?
Join me in this session as we dive into each AWS hosting service to determine which one is best for your scenario and explain why!
Cosa hanno in comune un mattoncino Lego e la backdoor XZ?Speck&Tech
ABSTRACT: A prima vista, un mattoncino Lego e la backdoor XZ potrebbero avere in comune il fatto di essere entrambi blocchi di costruzione, o dipendenze di progetti creativi e software. La realtà è che un mattoncino Lego e il caso della backdoor XZ hanno molto di più di tutto ciò in comune.
Partecipate alla presentazione per immergervi in una storia di interoperabilità, standard e formati aperti, per poi discutere del ruolo importante che i contributori hanno in una comunità open source sostenibile.
BIO: Sostenitrice del software libero e dei formati standard e aperti. È stata un membro attivo dei progetti Fedora e openSUSE e ha co-fondato l'Associazione LibreItalia dove è stata coinvolta in diversi eventi, migrazioni e formazione relativi a LibreOffice. In precedenza ha lavorato a migrazioni e corsi di formazione su LibreOffice per diverse amministrazioni pubbliche e privati. Da gennaio 2020 lavora in SUSE come Software Release Engineer per Uyuni e SUSE Manager e quando non segue la sua passione per i computer e per Geeko coltiva la sua curiosità per l'astronomia (da cui deriva il suo nickname deneb_alpha).
Ivanti’s Patch Tuesday breakdown goes beyond patching your applications and brings you the intelligence and guidance needed to prioritize where to focus your attention first. Catch early analysis on our Ivanti blog, then join industry expert Chris Goettl for the Patch Tuesday Webinar Event. There we’ll do a deep dive into each of the bulletins and give guidance on the risks associated with the newly-identified vulnerabilities.
Generating privacy-protected synthetic data using Secludy and MilvusZilliz
During this demo, the founders of Secludy will demonstrate how their system utilizes Milvus to store and manipulate embeddings for generating privacy-protected synthetic data. Their approach not only maintains the confidentiality of the original data but also enhances the utility and scalability of LLMs under privacy constraints. Attendees, including machine learning engineers, data scientists, and data managers, will witness first-hand how Secludy's integration with Milvus empowers organizations to harness the power of LLMs securely and efficiently.
Digital Marketing Trends in 2024 | Guide for Staying AheadWask
https://www.wask.co/ebooks/digital-marketing-trends-in-2024
Feeling lost in the digital marketing whirlwind of 2024? Technology is changing, consumer habits are evolving, and staying ahead of the curve feels like a never-ending pursuit. This e-book is your compass. Dive into actionable insights to handle the complexities of modern marketing. From hyper-personalization to the power of user-generated content, learn how to build long-term relationships with your audience and unlock the secrets to success in the ever-shifting digital landscape.
5th LF Energy Power Grid Model Meet-up SlidesDanBrown980551
5th Power Grid Model Meet-up
It is with great pleasure that we extend to you an invitation to the 5th Power Grid Model Meet-up, scheduled for 6th June 2024. This event will adopt a hybrid format, allowing participants to join us either through an online Mircosoft Teams session or in person at TU/e located at Den Dolech 2, Eindhoven, Netherlands. The meet-up will be hosted by Eindhoven University of Technology (TU/e), a research university specializing in engineering science & technology.
Power Grid Model
The global energy transition is placing new and unprecedented demands on Distribution System Operators (DSOs). Alongside upgrades to grid capacity, processes such as digitization, capacity optimization, and congestion management are becoming vital for delivering reliable services.
Power Grid Model is an open source project from Linux Foundation Energy and provides a calculation engine that is increasingly essential for DSOs. It offers a standards-based foundation enabling real-time power systems analysis, simulations of electrical power grids, and sophisticated what-if analysis. In addition, it enables in-depth studies and analysis of the electrical power grid’s behavior and performance. This comprehensive model incorporates essential factors such as power generation capacity, electrical losses, voltage levels, power flows, and system stability.
Power Grid Model is currently being applied in a wide variety of use cases, including grid planning, expansion, reliability, and congestion studies. It can also help in analyzing the impact of renewable energy integration, assessing the effects of disturbances or faults, and developing strategies for grid control and optimization.
What to expect
For the upcoming meetup we are organizing, we have an exciting lineup of activities planned:
-Insightful presentations covering two practical applications of the Power Grid Model.
-An update on the latest advancements in Power Grid -Model technology during the first and second quarters of 2024.
-An interactive brainstorming session to discuss and propose new feature requests.
-An opportunity to connect with fellow Power Grid Model enthusiasts and users.
Your One-Stop Shop for Python Success: Top 10 US Python Development Providersakankshawande
Simplify your search for a reliable Python development partner! This list presents the top 10 trusted US providers offering comprehensive Python development services, ensuring your project's success from conception to completion.
Taking AI to the Next Level in Manufacturing.pdfssuserfac0301
Read Taking AI to the Next Level in Manufacturing to gain insights on AI adoption in the manufacturing industry, such as:
1. How quickly AI is being implemented in manufacturing.
2. Which barriers stand in the way of AI adoption.
3. How data quality and governance form the backbone of AI.
4. Organizational processes and structures that may inhibit effective AI adoption.
6. Ideas and approaches to help build your organization's AI strategy.
1. Evaluate and quantify the drift of a
measuring instrument
Jean-Michel POU (Deltamu), Laurent LEBLOND (PSA Groupe - France)
Speaker: Peggy COURTOIS (Deltamu)
2. Measuring instruments
• Instruments measuring a range of
measurements
• Example:
• Caliper
• Ammeter
• Temperature probe
• pH-meter
• …
• Measuring instruments
• How is the drift calculated?
• New approach
• Conclusion
3. • Measuring instruments
• How is the drift calculated?
• New approach
• Conclusion
x
Time
Measurement
Calibration Results
for a fixed point
x
x
x
Maximum
Difference
* See LAB GTA-10
x
Standard
Measurement
Calibration Results
x
x
x
Drift contribution to the
final uncertainty
𝑴𝒂𝒙 𝑴𝒂𝒙 𝑫𝒊𝒇𝒇
𝟑
How is the drift calculated?
Usual approach
4. • Measuring instruments
• How is the drift calculated?
• New approach
• Conclusion
• Point to point analysis of
the drift
• Same points for future
calibration
• The maximum is not
representative
• Calibration points non
independent (covariance)
x
Standard
Measurement
Calibration Results
x
x
x
How is the drift calculated?
Disadvantages
x
Time
Measurement
Calibration Results
for a fixed point
x
x
x
Maximum
Difference
5. New approach
VIM3-2008
International Vocabulary of Metrology
(VIM3 – 2008)
Calibration (§2.39)
Operation that, under specified conditions:
1. Establishes a relation between the quantity values with
measurement uncertainties provided by measurement
standards and corresponding indications with
associated measurement uncertainties
2. Uses this information to establish a relation for
obtaining a measurement result from an indication
𝒚 = 𝒃 𝟎 + 𝒃 𝟏 𝒙 + 𝒃 𝟐 𝒙 𝟐
+ ⋯ + 𝒃 𝒏 𝒙 𝒏
• New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
x
Standard
Measurement
Calibration Results
x
x
x
𝒚 = 𝒃 𝟎 + 𝒃 𝟏 𝒙
6. • New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
New approach
How to identify a drift?
Standard
Measurement
Calibration Results
x
x
x
x
𝒚 = 𝒃 𝟎 + 𝒃 𝟏 𝒙
7. • New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
New approach
How to identify a drift?
Standard
Measurement
Calibration Results
x
x
x
x
b0
b1
𝒚 = 𝒃 𝟎 + 𝒃 𝟏 𝒙
𝒚 = 𝒙
Perfect
Instrument
𝒃 𝟎 = 𝟎
𝒃 𝟏 = 𝟏
𝒃 𝟎 = 𝟎
𝒃 𝟏 = 𝟏
1
0
8. • New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
New approach
How to identify a drift?
Standard
Measurement
Calibration Results
𝒚 = 𝒃 𝟎 + 𝒃 𝟏 𝒙
Standard
Measurement
Calibration Results
𝒚 = 𝒃 𝟎 + 𝒃 𝟏 𝒙
b0
b1
b0
b1
9. • New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
Etalonnage 1
Etalonnage 2
Etalonnage 3
Etalonnage 4
Etalonnage 5
Etalonnage 6
Etalonnage 7
Etalonnage 8
Etalonnage 9
Etalonnage 10
0,9985
0,999
0,9995
1
1,0005
1,001
1,0015
-0,15 -0,1 -0,05 0 0,05 0,1 0,15
Penteb1
Ordonnéeà l'origine b0
Evolution du point de coordonnées (b0;b1)
au fil des étalonnages
New approach
How to identify a drift?
Etalonnage 1
Etalonnage 2
Etalonnage 3
Etalonnage 4
Etalonnage 5
Etalonnage 6
Etalonnage 7
Etalonnage 8
Etalonnage 9
Etalonnage 10
1
1,00005
1,0001
1,00015
1,0002
1,00025
1,0003
1,00035
1,0004
1,00045
-0,02 0 0,02 0,04 0,06 0,08 0,1 0,12
Penteb1
Ordonnéeà l'origine b0
Evolution du point de coordonnées (b0;b1)
au fil des étalonnages
10. • New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
New approach
How to identify a drift?
b0
b1
time
b0
time
b1
b0
b1
11. Etalonnage 1
Etalonnage 2
Etalonnage 3
Etalonnage 4
Etalonnage 5
Etalonnage 6
Etalonnage 7
Etalonnage 8
Etalonnage 9
Etalonnage 10
1
1,00005
1,0001
1,00015
1,0002
1,00025
1,0003
1,00035
1,0004
1,00045
-0,02 0 0,02 0,04 0,06 0,08 0,1 0,12
Penteb1
Ordonnéeà l'origine b0
Evolution du point de coordonnées (b0;b1)
au fil des étalonnages
• New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
New approach
How to identify a drift?
-0,02
0
0,02
0,04
0,06
0,08
0,1
0,12
0 500 1000 1500 2000 2500 3000 3500
b0
Nombre de jours
Evolution de l'ordonnée à l'origine b0
au fil des étalonnages
1
1,00005
1,0001
1,00015
1,0002
1,00025
1,0003
1,00035
1,0004
1,00045
0 500 1000 1500 2000 2500 3000 3500
b1
Nombre de jours
Evolution de l'ordonnée à l'origine b1
au fil des étalonnages
b0
b1
12. • New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
New approach
How to identify a drift?
Standard
Measurement
Calibration Results
x
x
x
x
𝒚 = 𝒃 𝟎 + 𝒃 𝟏 𝒙
𝒚 = 𝒙
time
b0
time
b1
b0
b1
13. • New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
New approach
How to quantify the drift?
Standard
Measurement
Calibration Results
𝒚 = 𝒃 𝟎 + 𝒃 𝟏 𝒙
time
b0
time
b1
T0
t
b0
b1
Last
Calibration
Future
Calibration
(b0,b1)
at T0
(b0(t),b1(t))
b0(t)
b1(t)
t
T0
14. • New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
New approach
How to quantify the drift?
Standard
Measurement
Calibration Results
(b0,b1)
Contribution of the drift uncertainty to
the measurement process:
• Mean error:
𝒖 𝒔 𝒕 =
𝒆 𝒕
𝟑
• Random error:
𝒖 𝒓 𝒕 = 𝒔 𝒆 𝒕
𝑒 𝑡 : Deviation mean
𝑠 𝑒 𝑡 : Standard deviation
Future
Calibration
(b0(t),b1(t))
Last
Calibration
15. • New approach
• VIM3 – 2008
• How to identify a drift?
• How to quantify a drift?
• Further analysis
Further analysis
• Drift model uncertainty:
• Drift uncertainty based on the b0 and b1
coefficients
• Monte Carlo simulation
𝑏0 𝑡 = 𝑎00 + 𝑎01 ∗ 𝑡
𝑏1 𝑡 = 𝑎10 + 𝑎11 ∗ 𝑡
• Drift from the residues in the calibration
• Drift from the residues in the calibration is not
taken into account
• Fisher-Snédécor test
x
Standard
Measurement
Calibration Results
x
x
x
𝒚 = 𝒃 𝟎 + 𝒃 𝟏 𝒙
16. • Uncertainty in the measurement process
• How is the drift calculated?
• New approach
• Conclusion
Conclusion
Uncertainties for the instrument:
• Calibration
• Specifications
• Drift
• …
New method
• Behavior of the instrument in
its full domain
• Used for defining calibration
periodicity
• Mathematically more rigorous
Editor's Notes
Présentation:
Aujourd'hui, je vais vous parler de la dérive des instruments, mais surtout comment évaluer et quantifier l’incertitude liée a la dérive d’un instrument.
Ce travail est le fruit d’une collaboration entre JMP de Deltamu et LL de PSA. Malheureusement aucun d’entre eux ne pouvait être présent, je vais donc faire cette présentation pour eux.
La notion de dérive des instruments de mesure est une notion importante en métrologie. Quand on fait un étalonnage d’un instrument, on regarde l’état métrologique de l’instrument à l’instant t. Un étalonnage nous valide les mesures passées, mais en aucun cas on peut prédire de l’état de l’instrument demain, dans un mois, ou dans un an.
Pour certains types d’instruments, spécialement pour les instruments à cote fixe, l’étude de la dérive est facilement traitée. Les instruments a cote fixes sont principalement des instruments qui nous renvoient une seule dimension (cales étalons, masses étalons, bagues lisses étalons, …), la famille des calibres. Le fascicule FD X 07-014 propose justement une méthode, la méthode de la dérive, pour optimiser la périodicité de ce genre d’instruments.
Nous nous intéressons, dans cette présentation, seulement aux instruments à cote variable, qui sont eux aussi traites dans la FD X 07-014, mais en terme d’optimisation de périodicité, et non sur la dérive des instruments. Un instrument a cote variable, c’est principalement un instrument qui nous fournit un panel de mesure, par exemple, pied a coulisse, ampèremètre, PH-mètre, burette, débitmètre,…
De nos jours, comment calcule t on la dérive pour les instruments a cote variable?
De nos jours, comment calcule t on la dérive pour les instruments a cote variable?
Pour evaluer la part d’incertitude de notre instrument liée a la dérive, il existe plusieurs approches, je vous réfère au Guide Technique d’Accreditation LAB GTA-10 qui est un exemple parmi d’autres.
Une des méthodes la plus utilisée est la suivante:
Tout d abord, on va faire un 1er étalonnage. Lors de ce 1er étalonnage, on va regarder l’état de l’instrument à différents points donnes (généralement 4 ou 5), puis au fil des etalonnages successifs, on va se construire un historique, et on va regarder l évolution de chacun de ces points a travers le temps.
Pour determiner l’incertitude liee a la derive on va calculer pour chaque point l’ecart maximum entre la valeur attendue et la mesure entre 2, on va donc considerer le pire cas pour chaque point, ensuite on va prendre le maximum des maximums qu on va diviser par racine de trois car c est une loi uniforme sur le temps entre 2 etalonnages (GUM).
Pourquoi ca nous plait pas:
L’étalonnage n est fait que sur 3 ou 4 points maximum, on ne considère pas l’etendue de mesure de l appareil, donc on observe pas le comportement de l’instrument dans sa totalité
Les etalonnages suivants sont bases sur ces memes points
Le max fait sur la derive n est pas representatif
Les points d’etalonnage sont consideres independants alors qu ils ne le sont pas
JMP: on pourrait aussi préciser que dans cet écart, la contribution de l’incertitude d’étalonnage est souvent importante, voire très importante. Elle impacte donc l’évaluation de la dérive alors que ce n’est pas l’objet …
(Les regressions faites en general ne prennent pas en compte les incertitudes des droites de regression)
[en general on n a pas bp d’historique l’etude de la derive n’est faite que sur …]
La méthode des auteurs:
La méthode que les auteurs proposent est basée sur la définition d’etalonnage donnée par le VIM (la définition révisée de 2008).
Que dit cette définition? Le VIM depuis 2008 décompose un étalonnage en 2 étapes:
La première étape: c’est une comparaison entre les étalons i.e. les valeurs vraies que l’on cherche et nos mesures
La deuxième étape: c’est d’etablir une relation pour etre capable de faire le chemin inverse ie. que qq soit la mesure on doit être capable de trouver la valeur vraie.
Le VIM ne nous laisse libre sur la manière d’etablir cette relation. L outil le plus souvent utilise c est la régression mathématique. Pour notre présentation on s est contente d une régression linéaire, mais tout autre model peut être utilisé.
La méthode que je vais vous présenter est compatible avec la définition du VIM dans le sens ou elle utilise cette relation définie dans la définition, dans le sens ou on va regarder l’instrument dans son ensemble et non a des points d’etalonnage particuliers.
-> bien insister sur la notion de droite et non une analyse point a point
Présentation de la nouvelle méthode:
Presentation du graphe avec l’instrument parfait en bleu, notre instrument et l’etalonnage non parfaits. La droite d’etalonnage comme toute droite est caracterisee par la droite y=ax+b, dans notre cas et pour etre conforme aux modeles d’ordre superieur, on va garder la notation y=b0+b1*t, avec b0 l’ordonnee a l’origine et b1 la pente de la droite.
Tout d abord, comme dans toute methode qui met en evidence une derive il nous faut un historique de droite d’etalonnage.
Probleme, comment identifier une derive avec les droites que l on a?
La reponse: dans les coefficients des droites qui sont uniques a chaque droite. (entouree rouge)
Comment visualiser une dérive éventuelle dans une série de droite d’etalonnage?
Tout simplement on va visualiser les informations données par les coefficients b0 et b1 sous une autre forme.
Description d’un instrument parfait (y=x en bleu) -> transcription sur le graphe b0-b1.
Bien sûr nos instruments ne sont pas parfaits -> premier point noir, puis on accumule les droits/points noirs
Dans le graphe b0-b1 il manque la notion du temps d ou l ajout d une droite.
Important:
Vous voyez, on passe d un graphe a l autre pour mieux visualiser/extraire les informations, plus tard on verra par la suite que l’on fera le chemin inverse
Slide pedagogique pour mieux comprendre l’aspect physique et le lien entre les 2 graphes:
Cette slide est une petite slide rapide pour mieux comprendre l’impact de chaque coefficient sur le graphe b0-b1.
D’un cote b0 est fixe et b1 varie, de l’autre c est l inverse.
Exemples:
Exemples de graphes b0-b1, l’un avec un instrument qui ne derive pas, l’autre qui derive.
Description des graphes.
Ce graphe va nous permettre de visualizer une derive et de voir si une etude plus approfondie est necessaire.
Attention: exemples possible d instruments, ce ne sont pas des cas reels
JMP a eu le cas d une sonde de temperature PT100 qui derivait sur 10 ans
Approche qualitative de la derive:
Une fois qu on a mis en evidence une derive dans le graphe b0-b1, on va regarder ou se trouve cette derive en regardant chaque parameter en fonction du temps.
Donc on decompose, on visualize chaque parameter en function du temps
La je reprends l’exemple precedent celui ou on a identifie une derive.
On a ensuite decompose ce graphe pour chacun des parameters en function du temps.
On a qualitativement identifie une derive, maintenant on va chercher a la quantifier, mais surtout a quantifier son incertitude.
Petit recap: on est parti d’un historique d’etalonnage avec ses droites d’etalonnage, on a identifie une derive a l aide du graphe b0-b1.
Enfin de mieux connaitre cette derive on a decompose chaque parametre en fonction du temps.
La prochaine etape c est biensur de faire une regression lineaire sur chacun de ces parametres (rouge) et de determiner la prochaine date d’etalonnage.
Quantification de l’incertitude issue de la derive:
A partir de la, notre etude est finie, on a identifie la pente de notre derive.
Du coup, on ne s occupe plus des etalonnages precedent mais on va se concentrer du le dernier etalonnage a T0.
Avec la connaissance de la derive on va pouvoir projeter / anticiper pour obtenir les valeurs des coefficients b0 b1.
Ensuite on revient sur notre graphe d origine d etalonnage, sur lequel on va pouvoir tracer la droite d etalonnage etimee.
L ecart entre ces 2 courbes representent les etapes que va faire mon instrument pendant les 2 etalonnages.
C est cette quantite qui va nous donner notre incertitude.
Attention:
la courbe de rouge n est qu une estimation, ca ne prend pas en compte la fluctuation de la courbe d etalonnage
t : c est la date ou l on statue sur l instrument
Comment quantifier numeriquement l’incertitude due a la derive
A noter: le (t) correspond entre les 2 droites d etalonnage
CD:
La moyenne : erreur systematique de la derive
L’ecart type: l’erreur aleatoire
Un modele n est pas parfait , il faut prendre en compte sa qualite
On peut tester la qualite du modele avec une simulation monte carlo
Residu: test de fisher pour voir si les residus sont de la meme famille
Ex: si mon instrument ne drive pas mais fatigue
Petit recap a gauche
Conclusion a droite
Note:
Calibration periodicity: une fois qu on a identifie l’incertitude de notre processus de mesure, si on connait nos besoins et donc nos limites, on en deduit quelle place il reste pour l incertitude liee a la derive de l instrument. Du coup on peut choisir la prochaine date d etalonnage en function de la place qui reste…