Jean-Guy Meunier - Academia.edu (original) (raw)
Papers by Jean-Guy Meunier
En sciences humaines et plus particulièrement en philosophie, l'analyse conceptuelle (AC) est une... more En sciences humaines et plus particulièrement en philosophie, l'analyse conceptuelle (AC) est une pratique fondamentale qui permet de décortiquer les propriétés d'un concept. Lors de l'analyse d'un un corpus textuel, le principal défi est l'identification des segments de texte qui expriment le concept. Parfois, ces segments sont facilement reconnaissables grâce à une unité lexicale attendue, appelée forme canonique. Toutefois, ce n'est pas toujours le cas. Cet article propose une chaîne de traitement pour la découverte d'un certain nombre de segments périphériques, dits périsegments. Pour illustrer le processus, nous réalisons des expérimentations sur le concept d'« esprit » dans les Collected Papers de Ch. S. Peirce, en obtenant une précision moyenne supérieure à 83%.
En sciences humaines et plus particulièrement en philosophie, l'analyse conceptuelle (AC) est une... more En sciences humaines et plus particulièrement en philosophie, l'analyse conceptuelle (AC) est une pratique fondamentale qui permet de décortiquer les propriétés d'un concept. Lors de l'analyse d'un un corpus textuel, le principal défi est l'identification des segments de texte qui expriment le concept. Parfois, ces segments sont facilement reconnaissables grâce à une unité lexicale attendue, appelée forme canonique. Toutefois, ce n'est pas toujours le cas. Cet article propose une chaîne de traitement pour la découverte d'un certain nombre de segments périphériques, dits périsegments. Pour illustrer le processus, nous réalisons des expérimentations sur le concept d'« esprit » dans les Collected Papers de Ch. S. Peirce, en obtenant une précision moyenne supérieure à 83%.
Conceptual Analysis (CA) is a matter-of-course practice for philosophers and other scholars in th... more Conceptual Analysis (CA) is a matter-of-course practice for philosophers and other scholars in the humanities. Exploring one author’s corpus of texts in order to discover the various properties of a concept is a classic example of CA. Recently, a corpus-based computational framework for CA has been emerging in response to the methodological challenges brought about by the massive digitization of texts. In this framework, CA is approached by implementing a computer-assisted text analysis method, within which algorithms are used to support the various cognitive operations involved in CA. In this article, we focus on the retrieval of relevant text segments for analysis. However, this is a complex issue within a computational framework, since the relation between concept and natural language depends on several semantic phenomena, including synonymy , polysemy, and contextual modulation . The main contribution of this article is methodological because it explores the computational approa...
Semiotica, 2019
The rise of big digital data is changing the framework within which linguists, sociologists, anth... more The rise of big digital data is changing the framework within which linguists, sociologists, anthropologists, and other researchers are working. Semiotics is not spared by this paradigm shift. A data-driven computational semiotics is the study with an intensive use of computational methods of patterns in human-created contents related to semiotic phenomena. One of the most promising frameworks in this research program is the Semantic Vector Space (SVS) models and their methods. The objective of this article is to contribute to the exploration of the SVS for a computational semiotics by showing what types of semiotic analysis can be accomplished within this framework. The study is applied to a unique body of digitized artworks. We conducted three short experiments in which we explore three types of semiotic analysis: paradigmatic analysis, componential analysis, and topic modelling analysis. The results reported show that the SVS constitutes a powerful framework within which various ...
Intellectica. Revue de l'Association pour la Recherche Cognitive, 1992
The probleme of categorization in knowledge representation All artificial intelligence systems mu... more The probleme of categorization in knowledge representation All artificial intelligence systems must built some type of knowledge representation. Concretely however, this representation takes the form of a language whose classical forms are the ones of semantic nets, frames or production rules. A logical analysis of these representational languages shows that they are in fact built out not of one single language but out of a multiplicity of languages whose syntactic, semantic and pragmatic structures are most complex. This is not without affecting deeply the problem of categorization which normally is embedded it in.
Analyse de l’information textuelle, 1992
Le système d’analyse de textes par ordinateur SATO est un logiciel fondé sur des théories spécifi... more Le système d’analyse de textes par ordinateur SATO est un logiciel fondé sur des théories spécifiques de l’information où celle-ci est conçue d’un point de vue sémiotique, c’est-à-dire comme un système qui traite des données symboliques interprétables. En conséquence SATO ne peut être vu comme un système expert effectuant un traitement automatique. Il opère plus comme un adjuvant au travail de lecture et d’interprétation par un être humain. En ce sens, il est vu comme une aide dans la lecture philologique des textes.
Simulations in Biomedicine V, 2003
… . L'analyse de …, 2004
ABSTRACT. Summarizing is a critical phase in the automatic analysis of texts. Abstract generation... more ABSTRACT. Summarizing is a critical phase in the automatic analysis of texts. Abstract generation is a complex cognitive process. The state of art only allows the production of document condensations. This paper describes our method, Cortex, which uses an algorithmic-...
… -99: Proceedings of the Genetic and …, 1999
Laboratoire d'Analyse Cognitive de l'Information (LANCI). University of Québec in Montr... more Laboratoire d'Analyse Cognitive de l'Information (LANCI). University of Québec in Montréal, CP 8888, succ A, Montréal (Qc) H3C 3P8. E.mail: nault@pluton.lanci.uqam.ca ... Laboratoire TIMC-IMAG UMR CNRS 5525, Faculté de Médecine de Grenoble, 38700 La Tronche ...
ARCo, 2001
RÉSUMÉ. Étant donné que l'information sous forme électronique est déjà un standard, et que l... more RÉSUMÉ. Étant donné que l'information sous forme électronique est déjà un standard, et que la variété et la quantité de l'information deviennent de plus en plus grandes, des méthodes d'ob-tention de résumés ou condensation automatique de textes constituent une phase ...
JADT, 2002
Since information in electronic form is already a standard, and that the variety and the quantity... more Since information in electronic form is already a standard, and that the variety and the quantity of information become increasingly large, the methods of summarizing or automatic condensation of texts is a critical phase of the analysis of texts. This article describes Cortex a system based on numerical methods, which allows obtaining a condensation of a text, which is independent
Actes des JADT …, 2008
Computer assisted conceptual analyisis of texts (CACAT), is a method to assist the interpretative... more Computer assisted conceptual analyisis of texts (CACAT), is a method to assist the interpretative analysis of a concept in a textual corpus, produced by an individual or a community. We present at first the hypotheses and the methodological steps establishing (constituting) a CACAT chain. In the second step, we present research results on the social distribution of the conceptual work of "ACCOMMODEMMENT RAISONNABLE" in the Quebecois newspapers. This analysis aims at discovering the set of semantic and inferential properties associated with this concept. Résumé La lecture et l'analyse conceptuelle de textes assistée par ordinateur (LACTAO), est une méthode pour assister l'analyse interprétative des concepts dans un corpus de textes, produit par un individu ou une communauté. Nous présentons dans un premier temps les hypothèses et les étapes méthodologiques constituant la chaîne LACTAO. Dans un deuxième temps, nous présentons quelques résultats préliminaires de recherche sur la distribution sociale du travail conceptuel sur les ACCOMMODEMENTS RAISONNABLES dans les journaux québécois. Cette analyse montre comment se déploie, sur différents vecteurs de sens, le concept étudié.
Proceedings of Sixth International Congress on Information and Communication Technology, 2021
De nos jours un nombre croissant d'institutions accumulent tres rapidement des quantites de d... more De nos jours un nombre croissant d'institutions accumulent tres rapidement des quantites de documents qui ne sont souvent classes ou categorises que tres sommairement. Tres vite, les tâches de depistage, d'exploration et de recuperation de l'information presente dans ces textes, c'est-a-dire des "connaissances", deviennent extremement ardues, sinon impossibles. La litterature technique relative au traitement de l'information textuelle a montre qu'il etait possible d'explorer des outils d'extraction des connaissances dans des textes (data mining).
La classification automatique est une technique d'exploration et d'analyse de texte large... more La classification automatique est une technique d'exploration et d'analyse de texte largement utilisée par la communauté des sciences humaines et sociales. Plusieurs dizaines d'algorithmes ont été conçus, chacun s'appuyant sur un principe d'induction différent. La comparaison du comportement de ces différents algorithmes est devenue un enjeu méthodologique fondamental. Trois stratégies de comparaison ont été suggérées, basées sur des critères externes, internes ou relatifs. Nous présentons les premiers résultats d'une étude basée sur une stratégie de comparaison relative. Cette étude a pour objectif de mesurer la variation dans les résultats de classification automatique de texte en fonction de l'algorithme utilisé. Quatre algorithmes sont comparés : les réseaux de neurones adaptatifs (ART1), le K-Means (KM), Expectation Maximisation (EM) et les cartes topologiques auto-organisatrices (SOM). Abstract Clustering algorithm is a technique of exploration and ...
Since information in electronic form is already a standard, and that the variety and the quantity... more Since information in electronic form is already a standard, and that the variety and the quantity of information become increasingly large, the methods of summarizing or automatic condensation of texts is a critical phase of the analysis of texts. This article describes Cortex a system based on numerical methods, which allows obtaining a condensation of a text, which is independent of the topic and of the length of the text. The structure of the system enables it to find the abstracts in French or Spanish in very short times. Résumé Étant donné que la variété et la quantité de l’information sous forme électronique deviennent de plus en plus grandes, des méthodes d’obtention de résumés ou de condensation automatique de textes constituent une phase critique de l’analyse de textes. Cet article décrit Cortex, un système basé sur des méthodes numériques qui permet l’obtention d’un condensé d’un texte, qui est indépendant du thème, de l’ampleur du texte et de la façon dont il est écrit. L...
Explainable AI Within the Digital Transformation and Cyber Physical Systems, 2021
En sciences humaines et plus particulièrement en philosophie, l'analyse conceptuelle (AC) est une... more En sciences humaines et plus particulièrement en philosophie, l'analyse conceptuelle (AC) est une pratique fondamentale qui permet de décortiquer les propriétés d'un concept. Lors de l'analyse d'un un corpus textuel, le principal défi est l'identification des segments de texte qui expriment le concept. Parfois, ces segments sont facilement reconnaissables grâce à une unité lexicale attendue, appelée forme canonique. Toutefois, ce n'est pas toujours le cas. Cet article propose une chaîne de traitement pour la découverte d'un certain nombre de segments périphériques, dits périsegments. Pour illustrer le processus, nous réalisons des expérimentations sur le concept d'« esprit » dans les Collected Papers de Ch. S. Peirce, en obtenant une précision moyenne supérieure à 83%.
En sciences humaines et plus particulièrement en philosophie, l'analyse conceptuelle (AC) est une... more En sciences humaines et plus particulièrement en philosophie, l'analyse conceptuelle (AC) est une pratique fondamentale qui permet de décortiquer les propriétés d'un concept. Lors de l'analyse d'un un corpus textuel, le principal défi est l'identification des segments de texte qui expriment le concept. Parfois, ces segments sont facilement reconnaissables grâce à une unité lexicale attendue, appelée forme canonique. Toutefois, ce n'est pas toujours le cas. Cet article propose une chaîne de traitement pour la découverte d'un certain nombre de segments périphériques, dits périsegments. Pour illustrer le processus, nous réalisons des expérimentations sur le concept d'« esprit » dans les Collected Papers de Ch. S. Peirce, en obtenant une précision moyenne supérieure à 83%.
Conceptual Analysis (CA) is a matter-of-course practice for philosophers and other scholars in th... more Conceptual Analysis (CA) is a matter-of-course practice for philosophers and other scholars in the humanities. Exploring one author’s corpus of texts in order to discover the various properties of a concept is a classic example of CA. Recently, a corpus-based computational framework for CA has been emerging in response to the methodological challenges brought about by the massive digitization of texts. In this framework, CA is approached by implementing a computer-assisted text analysis method, within which algorithms are used to support the various cognitive operations involved in CA. In this article, we focus on the retrieval of relevant text segments for analysis. However, this is a complex issue within a computational framework, since the relation between concept and natural language depends on several semantic phenomena, including synonymy , polysemy, and contextual modulation . The main contribution of this article is methodological because it explores the computational approa...
Semiotica, 2019
The rise of big digital data is changing the framework within which linguists, sociologists, anth... more The rise of big digital data is changing the framework within which linguists, sociologists, anthropologists, and other researchers are working. Semiotics is not spared by this paradigm shift. A data-driven computational semiotics is the study with an intensive use of computational methods of patterns in human-created contents related to semiotic phenomena. One of the most promising frameworks in this research program is the Semantic Vector Space (SVS) models and their methods. The objective of this article is to contribute to the exploration of the SVS for a computational semiotics by showing what types of semiotic analysis can be accomplished within this framework. The study is applied to a unique body of digitized artworks. We conducted three short experiments in which we explore three types of semiotic analysis: paradigmatic analysis, componential analysis, and topic modelling analysis. The results reported show that the SVS constitutes a powerful framework within which various ...
Intellectica. Revue de l'Association pour la Recherche Cognitive, 1992
The probleme of categorization in knowledge representation All artificial intelligence systems mu... more The probleme of categorization in knowledge representation All artificial intelligence systems must built some type of knowledge representation. Concretely however, this representation takes the form of a language whose classical forms are the ones of semantic nets, frames or production rules. A logical analysis of these representational languages shows that they are in fact built out not of one single language but out of a multiplicity of languages whose syntactic, semantic and pragmatic structures are most complex. This is not without affecting deeply the problem of categorization which normally is embedded it in.
Analyse de l’information textuelle, 1992
Le système d’analyse de textes par ordinateur SATO est un logiciel fondé sur des théories spécifi... more Le système d’analyse de textes par ordinateur SATO est un logiciel fondé sur des théories spécifiques de l’information où celle-ci est conçue d’un point de vue sémiotique, c’est-à-dire comme un système qui traite des données symboliques interprétables. En conséquence SATO ne peut être vu comme un système expert effectuant un traitement automatique. Il opère plus comme un adjuvant au travail de lecture et d’interprétation par un être humain. En ce sens, il est vu comme une aide dans la lecture philologique des textes.
Simulations in Biomedicine V, 2003
… . L'analyse de …, 2004
ABSTRACT. Summarizing is a critical phase in the automatic analysis of texts. Abstract generation... more ABSTRACT. Summarizing is a critical phase in the automatic analysis of texts. Abstract generation is a complex cognitive process. The state of art only allows the production of document condensations. This paper describes our method, Cortex, which uses an algorithmic-...
… -99: Proceedings of the Genetic and …, 1999
Laboratoire d'Analyse Cognitive de l'Information (LANCI). University of Québec in Montr... more Laboratoire d'Analyse Cognitive de l'Information (LANCI). University of Québec in Montréal, CP 8888, succ A, Montréal (Qc) H3C 3P8. E.mail: nault@pluton.lanci.uqam.ca ... Laboratoire TIMC-IMAG UMR CNRS 5525, Faculté de Médecine de Grenoble, 38700 La Tronche ...
ARCo, 2001
RÉSUMÉ. Étant donné que l'information sous forme électronique est déjà un standard, et que l... more RÉSUMÉ. Étant donné que l'information sous forme électronique est déjà un standard, et que la variété et la quantité de l'information deviennent de plus en plus grandes, des méthodes d'ob-tention de résumés ou condensation automatique de textes constituent une phase ...
JADT, 2002
Since information in electronic form is already a standard, and that the variety and the quantity... more Since information in electronic form is already a standard, and that the variety and the quantity of information become increasingly large, the methods of summarizing or automatic condensation of texts is a critical phase of the analysis of texts. This article describes Cortex a system based on numerical methods, which allows obtaining a condensation of a text, which is independent
Actes des JADT …, 2008
Computer assisted conceptual analyisis of texts (CACAT), is a method to assist the interpretative... more Computer assisted conceptual analyisis of texts (CACAT), is a method to assist the interpretative analysis of a concept in a textual corpus, produced by an individual or a community. We present at first the hypotheses and the methodological steps establishing (constituting) a CACAT chain. In the second step, we present research results on the social distribution of the conceptual work of "ACCOMMODEMMENT RAISONNABLE" in the Quebecois newspapers. This analysis aims at discovering the set of semantic and inferential properties associated with this concept. Résumé La lecture et l'analyse conceptuelle de textes assistée par ordinateur (LACTAO), est une méthode pour assister l'analyse interprétative des concepts dans un corpus de textes, produit par un individu ou une communauté. Nous présentons dans un premier temps les hypothèses et les étapes méthodologiques constituant la chaîne LACTAO. Dans un deuxième temps, nous présentons quelques résultats préliminaires de recherche sur la distribution sociale du travail conceptuel sur les ACCOMMODEMENTS RAISONNABLES dans les journaux québécois. Cette analyse montre comment se déploie, sur différents vecteurs de sens, le concept étudié.
Proceedings of Sixth International Congress on Information and Communication Technology, 2021
De nos jours un nombre croissant d'institutions accumulent tres rapidement des quantites de d... more De nos jours un nombre croissant d'institutions accumulent tres rapidement des quantites de documents qui ne sont souvent classes ou categorises que tres sommairement. Tres vite, les tâches de depistage, d'exploration et de recuperation de l'information presente dans ces textes, c'est-a-dire des "connaissances", deviennent extremement ardues, sinon impossibles. La litterature technique relative au traitement de l'information textuelle a montre qu'il etait possible d'explorer des outils d'extraction des connaissances dans des textes (data mining).
La classification automatique est une technique d'exploration et d'analyse de texte large... more La classification automatique est une technique d'exploration et d'analyse de texte largement utilisée par la communauté des sciences humaines et sociales. Plusieurs dizaines d'algorithmes ont été conçus, chacun s'appuyant sur un principe d'induction différent. La comparaison du comportement de ces différents algorithmes est devenue un enjeu méthodologique fondamental. Trois stratégies de comparaison ont été suggérées, basées sur des critères externes, internes ou relatifs. Nous présentons les premiers résultats d'une étude basée sur une stratégie de comparaison relative. Cette étude a pour objectif de mesurer la variation dans les résultats de classification automatique de texte en fonction de l'algorithme utilisé. Quatre algorithmes sont comparés : les réseaux de neurones adaptatifs (ART1), le K-Means (KM), Expectation Maximisation (EM) et les cartes topologiques auto-organisatrices (SOM). Abstract Clustering algorithm is a technique of exploration and ...
Since information in electronic form is already a standard, and that the variety and the quantity... more Since information in electronic form is already a standard, and that the variety and the quantity of information become increasingly large, the methods of summarizing or automatic condensation of texts is a critical phase of the analysis of texts. This article describes Cortex a system based on numerical methods, which allows obtaining a condensation of a text, which is independent of the topic and of the length of the text. The structure of the system enables it to find the abstracts in French or Spanish in very short times. Résumé Étant donné que la variété et la quantité de l’information sous forme électronique deviennent de plus en plus grandes, des méthodes d’obtention de résumés ou de condensation automatique de textes constituent une phase critique de l’analyse de textes. Cet article décrit Cortex, un système basé sur des méthodes numériques qui permet l’obtention d’un condensé d’un texte, qui est indépendant du thème, de l’ampleur du texte et de la façon dont il est écrit. L...
Explainable AI Within the Digital Transformation and Cyber Physical Systems, 2021