Daniel Meneveaux - Academia.edu (original) (raw)
Papers by Daniel Meneveaux
Cet article presente une nouvelle methode pour generer et controler de la houle ainsi que des vag... more Cet article presente une nouvelle methode pour generer et controler de la houle ainsi que des vagues deferlantes en utilisant un simulateur de fluides SPH (Smoothed Particle Hydrodynamics). Les approches conventionnelles consistent a utiliser un mur en mouvement pour donner une acceleration aux particules, mais le controle des vagues est difficile a assurer. Cet article decrit un modele de forces decrivant physiquement la formation et la propagation des vagues.Nous montrons que son utilisation permet d’obtenir de nombreux types de vagues, et de controler de maniere intuitive la forme, la vitesse ou encore l’instant du deferlement des vagues. Il est base sur une representation en deux dimensions seulement, avec des parametres de vitesse, de largeur ou encore de hauteur des vagues.
Specular microfacet distributions have been successfully employed by many authors for representin... more Specular microfacet distributions have been successfully employed by many authors for representing materials glossiness, and they are generally combined with a Lambertian term that accounts for the colored aspect. Such a representation makes use of the Fresnel reflectance factor at the interface, but the transmission factor is often ignored. In addition, the generalization to microfacet distributions with a more general reflectance is known to be complex, since it requires to solve an angular integral that has no analytical solution. This paper proposes a complete framework for physically handling both reflection and transmission with microfacet distributions. First, we show how transmission affects reflectance of an interfaced Lambertian model, and provide an analytical description of an individual microfacet reflectance. Second, we describe a method for handling distributions of such microfacets in any physically based Monte-Carlo rendering systems. Our approach generalizes severa...
Chapitre 1-Introduction Caractéristiques physiques Enfin, la description géométrique seule ne suf... more Chapitre 1-Introduction Caractéristiques physiques Enfin, la description géométrique seule ne suffit pas pour permettre réaliser des calculs de simulation. En effet, selon les applications, divers autres types de données sontégalement nécessaires au modèle, soit pour des raisons informatives / sémantiques (pour indiquer les salles d'eau, les escaliers, les bureaux, etc.), soit pour associer une représentation des matériaux aux volumes (propriétés de réflectance des surfaces, indices de réfraction des volumes, etc.). Malgré l'existence de nouveaux standards, les données nécessairesà chaque type de simulation ne sont pas entièrement contenues dans les fichiers de description 3D. Uneétape de prétraitement (le plus souvent manuelle) est réalisée afin de compléter les modèles en leur ajoutant les informations topologiques / hiérarchiques / sémantiques nécessaires aux calculs. Malheureusement, les données produites pour une application sont très spécifiques et inutilisables pour d'autres. 1.2. Travaux réalisés 3 tuellement permettent de visualiser les objets et de les rééclairer sans prendre encore en compte tous les paramètres d'intégration. Ce mémoire est organisé en trois parties principales : (chapitre 2) la représentation et la modélisation d'environnements architecturaux, (chapitre 3) les problèmes de simulation d'éclairage en particulier pour la gestion de complexes architecturaux et (chapitre 4) l'analyse d'objetsà base d'images pour permettre le rééclairage et l'intégration d'objets réels dans des environnements virtuels. Modèles de représentation et outils de modélisation Les logiciels de modélisation spécialisés en architecture offrent une large palette de fonctionnalités pour construire les bâtiments de manière intuitive. Malheureusement, les informations topologiques présentes dans les fichiers d'échange sont très rudimentaires, et les données ne sont pas toujours appropriées aux calculs de simulation. C'est pourquoi uneétape (très souvent manuelle) de mise en conformité est nécessaire. Quelques outils intégrés permettent de réaliserà la fois la modélisation géométrique et les calculs de simulation, mais ils sont dédiésà un type d'étude précis. De plus, les logiciels ne sont pas conçus pour la construction d'environnements complexes. Lorsque les données sont trop importantes pour assurer un fonctionnement convenable du logiciel, l'utilisateur doit définir lui-même des stratégies de gestion de la mémoireà l'aide de calques ou en construisant l'environnement région par région. Notre objectif est de proposer un modèle et des outils de modélisation dédiésà la (re)construction de tels environnements. Représentation et contraintes de cohérence Nous proposons un modèle de représentation adapté au traitement d'environnements complexes, impossiblesà stocker en mémoire dans leur intégralité ; il s'agit d'une représentation hiérarchique permettant une gestion automatique de la mémoire lors de la modélisation. Nous définissonségalement un ensemble de contraintes de cohérence associéesà la structure géométrique, topologique et sémantique des bâtiments, pour assurer une structure homogène et permettre de déterminer la validité des modèles (re)construits. La plupart de mes travaux sont associésà des collaborations et/ou des contrats, avec des co-encadrements de thèses, de stages, ou de projets. Encadrement de thèses et de stages Les thèses pour lesquelles j'ai participéà l'encadrement sont les suivantes : 1.3. Encadrements et collaborations Chapitre 1-Introduction 1.4 Structure du manuscrit Le chapitre 2 de ce mémoire décrit la représentation et les opérations définies pour la modélisation de bâtiments et la reconstructionà partir de plans d'architectes vectoriels. Le chapitre 3 développe l'exemple de la simulation d'éclairage, avec les méthodes de gestion de mémoire et les choix d'ordonnancement des calculs. Enfin, le chapitre 4 présente notre système de reconstruction d'objetsà partir d'images.
Computer Graphics Forum, 2021
Man‐made objects commonly exhibit rounded edges and corners generated through their manufacturing... more Man‐made objects commonly exhibit rounded edges and corners generated through their manufacturing processes. The variation of surface normals at these confined locations produces shading details that are visually essential to the realism of synthetic scenes. The more specular the surface, the finer and more prominent its highlights. However, most geometric modellers represent rounded edges and corners with dense polygonal meshes that are limited in terms of smoothness, while tremendously increasing scene complexity. This paper proposes a non‐invasive method (i.e. that does not modify the original geometry) for the modelling and rendering of smooth edges and corners from any input polygonal geometry defined with infinitely sharp edges. At the heart of our contribution is a geometric structure that automatically and accurately defines the geometry of edge and corner rounded areas, as well as the topological relationships at edges and vertices. This structure, called SREC‐RT, is integrated in a ray‐tracing‐based acceleration structure in order to determine the region of interest of each rounded edge and corner. It allows systematic rounding of all edges and vertices without increasing the 3D scene geometric complexity. While the underlying rounded geometry can be of any type, we propose a practical ray‐edge and ray‐corner intersection based on parametric surfaces. We analyse comparisons generated with existing methods. Our results present the advantages of our method, including extreme close‐up views of surfaces with a much higher quality for very little additional memory, and reasonable computation time overhead.
Proceedings of the Second International Conference on Computer Graphics Theory and Applications, 2007
This paper presents a new method for reconstructing geometry and topology of 3D buildings from 2D... more This paper presents a new method for reconstructing geometry and topology of 3D buildings from 2D architectural plans. A complete topological model expresses incidence and adjacency relations between all the elements. It is necessary for both recovering accurately 2D information and constructing a coherent 3D building. Based on an existing topological kernel, several high-level operations have been developped in 2D for creating walls, portals, stairs, etc. Semantic information is associated with all volumes for specifying openings, walls, rooms, stairs, facade, etc. The resulting 2D model is extruded for generating a 3D environment, taking the semantic information into account since doors are not processed as walls for instance. Floors are superimposed using volumes corresponding to upper and lower ceilings linked according to stairways. The resulting models are suitable for various application such as walkthrough, lighting/wave propoagation/thermal simulation.
Applied Optics, 2020
Microfacet-based material appearance models are commonly considered as a physical plausible repre... more Microfacet-based material appearance models are commonly considered as a physical plausible representation of matter–light interaction. With such models, the microgeometry of a surface element is defined by a statistical distribution of microfacets. The mathematical formulation ensures physical plausibility, such as energy conservation and reciprocity. Many authors have addressed microfacet bidirectional scattering distribution function (BSDF) representations, with various normal distribution functions (NDFs) and their relationship with shadowing and masking, or the effects due to multiple light scattering on the microgeometry. However, an extensive study on how an actual microgeometry drives material appearance still is missing. This question is a key issue for inverse design and manufacturing. This paper contributes to filling this gap by proposing a complete pipeline composed of a microgeometry generation process and numerical lighting simulation. From any input NDF, our method g...
Computers & Graphics, 2019
This paper proposes an interactive High Dynamic Range (HDR) image-based rendering system, dedicat... more This paper proposes an interactive High Dynamic Range (HDR) image-based rendering system, dedicated to manually acquired photographs. It only relies on a point-based geometric proxy and the original photographs, calibrated using a standard structure-from-motion process. First, a depth map is estimated for each new rendered viewpoint, based on the point cloud. Second, pixel values are reconstructed from the original photographs, using a blending model that also handles occlusion. Our system can be used for producing HDR images from several series of unaligned photographs with different exposures. As shown in the results, it proves efficient with various types of objects, implemented in WebGL, making it practical for many purposes.
ACM Transactions on Graphics, 2019
Microfacet distributions are considered nowadays as a reference for physically plausible BSDF rep... more Microfacet distributions are considered nowadays as a reference for physically plausible BSDF representations. Many authors have focused on their physical and mathematical correctness, while introducing means to enlarge the range of possible appearances. This article is dedicated to Normal Distribution Functions (NDFs) and the influence of their shape on the rendered material aspect. We provide a complete framework for studying the impact of NDFs on the observed Bidirectional Scattering Distribution Functions (BSDFs). To explore very general NDFs, manually controlled by the user, and including anisotropic materials, we propose to use a piecewise continuous representation. It is derived with its associated Smith shadowing-masking function and importance sampling formulations for ensuring efficient global illumination computations. A new procedure is also proposed in this article for generating an explicit geometric micro-surface, used to evaluate the validity of analytic models and m...
Computer Graphics Forum, 2017
This paper focuses on microfacet reflectance models, and more precisely on the definition of a ne... more This paper focuses on microfacet reflectance models, and more precisely on the definition of a new and more general distribution function, which includes both Beckmann's and GGX distributions widely used in the computer graphics community. Therefore, our model makes use of an additional parameter γ, which controls the distribution function slope and tail height. It actually corresponds to a bivariate Student's t-distribution in slopes space and it is presented with the associated analytical formulation of the geometric attenuation factor derived from Smith representation. We also provide the analytical derivations for importance sampling isotropic and anisotropic materials. As shown in the results, this new representation offers a finer control of a wide range of materials, while extending the capabilities of fitting parameters with captured data. This file contains the mathematical justifications concerning the Student's t Normal Distribution Function (STD). We provide all the mathematical details and links for all the expressions given in the paper: in-depth presentation of the new distributions family; proof that STD actually corresponds to Beckmann when γ → ∞; analytical smith-Bourlier GAF derivation based on STD, and discussion about correlated and uncorrelated GAFs; formulas for the specific cases of the discrete values of γ; details about the analytical cumulative density function and its inversion for importance sampling. We also provide the demonstration for using the visible normals distribution and the constraints which should be handled in the practical case, as well as some implementation details.
IEEE transactions on visualization and computer graphics, 2017
Specular microfacet distributions have been successfully employed by many authors for representin... more Specular microfacet distributions have been successfully employed by many authors for representing glossiness of materials. They are generally combined with a Lambertian term to account for the colored aspect. These representations make use of the Fresnel reflectance factor at the interface, but the transmission factor at the interface should also be managed. One solution is to employ a multi-layered model with a single layer for the rough interface, which requires a numerical simulation for handling the multiple reflections of light between the substrate and the interface. In this paper, we propose rather to use a representation corresponding to a Fresnel interface lying on a Lambertian substrate, for which the multiple reflections of light between the interface and the substrate can be expressed analytically. With this interfaced Lambertian model, we show how Fresnel transmission affects the material appearance for flat and rough surfaces with isotropic and anisotropic distributio...
Depuis quelques années, les méthodes de rendu basé-image connaissent un succès croissant car elle... more Depuis quelques années, les méthodes de rendu basé-image connaissent un succès croissant car elles permettent de visualiser une scène réelle ou virtuelle presque uniquementà partir d'images. Grâceà un compromis entre simplicité de stockage et richesse de représentation, le lumigraphe est probablement aujourd'hui la structure de données basée-image la plus utilisée dans la communauté graphique. Actuellement, l'une de nos préoccupations concerne le rééclairage de lumigraphes,éventuellement pour les intégrerà l'intérieur d'environnements virtuels. Le point clé de cetteétude est la normale de la surface associéeà l'objet puisque d'une part elle permet de retrouver la position des sources de lumière, leurs caractéristiques ainsi que celles de la surface de l'objet et d'autre part elle est primordiale pour prendre en compte un nouveléclairage. Dans cet article, notre contribution concerne une méthode de reconstruction géométrique dédiée aux lumigraphes et deux algorithmes d'estimation des normales. La premièreétape consisteà estimer la géométrie de l'objet selon une méthode de sculpture basée sur la silhouette, le résultat produit est une hiérarchie de voxels représentant sa forme. Nous proposonségalement de reconstruire un maillage grâceà une version adaptée de l'algorithme des marching cubes et l'évaluation de la normale est réalisée soit directementà partir du maillage produit, soit uniquementà l'aide de la hiérarchie de voxels. Uneétude comparative permet d'estimer la qualité des résultats obtenusà la fois pour la reconstruction géométrique et pour les deux méthodes d'estimation des normales.
La compression de modèles géométriques est un enjeu important ces dernières années. En effet, les... more La compression de modèles géométriques est un enjeu important ces dernières années. En effet, les modèles deviennent de plus en plus volumineux, ce qui pose des problèmes de stockage sur disque ou de latence lors de transmission sur des réseaux de télécommunication. Les méthodes de compression basées connectivité remportent un franc succès puisqu'elles conservent la topologie initiale des maillages, la topologie étant nécessaire dans de nombreuses applications telles que certaines opérations de modélisation géométrique, pour la construction de structures performantes en visualisation (graphes de visibilité), pour la décimation de maillages (création de niveaux de détail), etc. Nous proposons dans cet article la première technique de compression sans perte de la connectivité permettant de traiter des subdivisions variétés (manifold) en dimension quelconque : maillages surfaciques, volumiques, avec des cellules quelconques, avec ou sans bords, orientables ou non. Notre méthode s&#...
In this paper, we propose to use image pixels for geometry reconstruction with a shape from silho... more In this paper, we propose to use image pixels for geometry reconstruction with a shape from silhouette approach. We aim at estimating shape and normal for the surface of a single object seen through calibrated images. From the voxel-based shape obtained with the algorithm proposed by R. Szeliski in (18), our main contribution concerns the use of image pixels together with marching cubes for constructing a triangular mesh. We also provide a mean for estimating a normal inside each voxel with two different methods: (i) using marching cubes triangles and (ii) using only voxels. As seen in the results, our method proves accurate even for real objects acquired with a usual camera and an inexpensive acquisition system.
Proceedings of the 28th annual conference on Computer graphics and interactive techniques, 2001
Proceedings of the 2nd international conference on Computer graphics, virtual Reality, visualisation and interaction in Africa - AFRIGRAPH '03, 2003
Computational Imaging and Vision
In this paper, we propose a new method for estimating jointly light sources and reflectance prope... more In this paper, we propose a new method for estimating jointly light sources and reflectance properties of an object seen through images. A classification process firstly identifies regions of the object having the same appearance. An identification method is then applied for jointly (i) deciding what light sources are actually significant and (ii) estimating diffuse and specular coefficients for the surface.
The Visual Computer, 2005
Cet article presente une nouvelle methode pour generer et controler de la houle ainsi que des vag... more Cet article presente une nouvelle methode pour generer et controler de la houle ainsi que des vagues deferlantes en utilisant un simulateur de fluides SPH (Smoothed Particle Hydrodynamics). Les approches conventionnelles consistent a utiliser un mur en mouvement pour donner une acceleration aux particules, mais le controle des vagues est difficile a assurer. Cet article decrit un modele de forces decrivant physiquement la formation et la propagation des vagues.Nous montrons que son utilisation permet d’obtenir de nombreux types de vagues, et de controler de maniere intuitive la forme, la vitesse ou encore l’instant du deferlement des vagues. Il est base sur une representation en deux dimensions seulement, avec des parametres de vitesse, de largeur ou encore de hauteur des vagues.
Specular microfacet distributions have been successfully employed by many authors for representin... more Specular microfacet distributions have been successfully employed by many authors for representing materials glossiness, and they are generally combined with a Lambertian term that accounts for the colored aspect. Such a representation makes use of the Fresnel reflectance factor at the interface, but the transmission factor is often ignored. In addition, the generalization to microfacet distributions with a more general reflectance is known to be complex, since it requires to solve an angular integral that has no analytical solution. This paper proposes a complete framework for physically handling both reflection and transmission with microfacet distributions. First, we show how transmission affects reflectance of an interfaced Lambertian model, and provide an analytical description of an individual microfacet reflectance. Second, we describe a method for handling distributions of such microfacets in any physically based Monte-Carlo rendering systems. Our approach generalizes severa...
Chapitre 1-Introduction Caractéristiques physiques Enfin, la description géométrique seule ne suf... more Chapitre 1-Introduction Caractéristiques physiques Enfin, la description géométrique seule ne suffit pas pour permettre réaliser des calculs de simulation. En effet, selon les applications, divers autres types de données sontégalement nécessaires au modèle, soit pour des raisons informatives / sémantiques (pour indiquer les salles d'eau, les escaliers, les bureaux, etc.), soit pour associer une représentation des matériaux aux volumes (propriétés de réflectance des surfaces, indices de réfraction des volumes, etc.). Malgré l'existence de nouveaux standards, les données nécessairesà chaque type de simulation ne sont pas entièrement contenues dans les fichiers de description 3D. Uneétape de prétraitement (le plus souvent manuelle) est réalisée afin de compléter les modèles en leur ajoutant les informations topologiques / hiérarchiques / sémantiques nécessaires aux calculs. Malheureusement, les données produites pour une application sont très spécifiques et inutilisables pour d'autres. 1.2. Travaux réalisés 3 tuellement permettent de visualiser les objets et de les rééclairer sans prendre encore en compte tous les paramètres d'intégration. Ce mémoire est organisé en trois parties principales : (chapitre 2) la représentation et la modélisation d'environnements architecturaux, (chapitre 3) les problèmes de simulation d'éclairage en particulier pour la gestion de complexes architecturaux et (chapitre 4) l'analyse d'objetsà base d'images pour permettre le rééclairage et l'intégration d'objets réels dans des environnements virtuels. Modèles de représentation et outils de modélisation Les logiciels de modélisation spécialisés en architecture offrent une large palette de fonctionnalités pour construire les bâtiments de manière intuitive. Malheureusement, les informations topologiques présentes dans les fichiers d'échange sont très rudimentaires, et les données ne sont pas toujours appropriées aux calculs de simulation. C'est pourquoi uneétape (très souvent manuelle) de mise en conformité est nécessaire. Quelques outils intégrés permettent de réaliserà la fois la modélisation géométrique et les calculs de simulation, mais ils sont dédiésà un type d'étude précis. De plus, les logiciels ne sont pas conçus pour la construction d'environnements complexes. Lorsque les données sont trop importantes pour assurer un fonctionnement convenable du logiciel, l'utilisateur doit définir lui-même des stratégies de gestion de la mémoireà l'aide de calques ou en construisant l'environnement région par région. Notre objectif est de proposer un modèle et des outils de modélisation dédiésà la (re)construction de tels environnements. Représentation et contraintes de cohérence Nous proposons un modèle de représentation adapté au traitement d'environnements complexes, impossiblesà stocker en mémoire dans leur intégralité ; il s'agit d'une représentation hiérarchique permettant une gestion automatique de la mémoire lors de la modélisation. Nous définissonségalement un ensemble de contraintes de cohérence associéesà la structure géométrique, topologique et sémantique des bâtiments, pour assurer une structure homogène et permettre de déterminer la validité des modèles (re)construits. La plupart de mes travaux sont associésà des collaborations et/ou des contrats, avec des co-encadrements de thèses, de stages, ou de projets. Encadrement de thèses et de stages Les thèses pour lesquelles j'ai participéà l'encadrement sont les suivantes : 1.3. Encadrements et collaborations Chapitre 1-Introduction 1.4 Structure du manuscrit Le chapitre 2 de ce mémoire décrit la représentation et les opérations définies pour la modélisation de bâtiments et la reconstructionà partir de plans d'architectes vectoriels. Le chapitre 3 développe l'exemple de la simulation d'éclairage, avec les méthodes de gestion de mémoire et les choix d'ordonnancement des calculs. Enfin, le chapitre 4 présente notre système de reconstruction d'objetsà partir d'images.
Computer Graphics Forum, 2021
Man‐made objects commonly exhibit rounded edges and corners generated through their manufacturing... more Man‐made objects commonly exhibit rounded edges and corners generated through their manufacturing processes. The variation of surface normals at these confined locations produces shading details that are visually essential to the realism of synthetic scenes. The more specular the surface, the finer and more prominent its highlights. However, most geometric modellers represent rounded edges and corners with dense polygonal meshes that are limited in terms of smoothness, while tremendously increasing scene complexity. This paper proposes a non‐invasive method (i.e. that does not modify the original geometry) for the modelling and rendering of smooth edges and corners from any input polygonal geometry defined with infinitely sharp edges. At the heart of our contribution is a geometric structure that automatically and accurately defines the geometry of edge and corner rounded areas, as well as the topological relationships at edges and vertices. This structure, called SREC‐RT, is integrated in a ray‐tracing‐based acceleration structure in order to determine the region of interest of each rounded edge and corner. It allows systematic rounding of all edges and vertices without increasing the 3D scene geometric complexity. While the underlying rounded geometry can be of any type, we propose a practical ray‐edge and ray‐corner intersection based on parametric surfaces. We analyse comparisons generated with existing methods. Our results present the advantages of our method, including extreme close‐up views of surfaces with a much higher quality for very little additional memory, and reasonable computation time overhead.
Proceedings of the Second International Conference on Computer Graphics Theory and Applications, 2007
This paper presents a new method for reconstructing geometry and topology of 3D buildings from 2D... more This paper presents a new method for reconstructing geometry and topology of 3D buildings from 2D architectural plans. A complete topological model expresses incidence and adjacency relations between all the elements. It is necessary for both recovering accurately 2D information and constructing a coherent 3D building. Based on an existing topological kernel, several high-level operations have been developped in 2D for creating walls, portals, stairs, etc. Semantic information is associated with all volumes for specifying openings, walls, rooms, stairs, facade, etc. The resulting 2D model is extruded for generating a 3D environment, taking the semantic information into account since doors are not processed as walls for instance. Floors are superimposed using volumes corresponding to upper and lower ceilings linked according to stairways. The resulting models are suitable for various application such as walkthrough, lighting/wave propoagation/thermal simulation.
Applied Optics, 2020
Microfacet-based material appearance models are commonly considered as a physical plausible repre... more Microfacet-based material appearance models are commonly considered as a physical plausible representation of matter–light interaction. With such models, the microgeometry of a surface element is defined by a statistical distribution of microfacets. The mathematical formulation ensures physical plausibility, such as energy conservation and reciprocity. Many authors have addressed microfacet bidirectional scattering distribution function (BSDF) representations, with various normal distribution functions (NDFs) and their relationship with shadowing and masking, or the effects due to multiple light scattering on the microgeometry. However, an extensive study on how an actual microgeometry drives material appearance still is missing. This question is a key issue for inverse design and manufacturing. This paper contributes to filling this gap by proposing a complete pipeline composed of a microgeometry generation process and numerical lighting simulation. From any input NDF, our method g...
Computers & Graphics, 2019
This paper proposes an interactive High Dynamic Range (HDR) image-based rendering system, dedicat... more This paper proposes an interactive High Dynamic Range (HDR) image-based rendering system, dedicated to manually acquired photographs. It only relies on a point-based geometric proxy and the original photographs, calibrated using a standard structure-from-motion process. First, a depth map is estimated for each new rendered viewpoint, based on the point cloud. Second, pixel values are reconstructed from the original photographs, using a blending model that also handles occlusion. Our system can be used for producing HDR images from several series of unaligned photographs with different exposures. As shown in the results, it proves efficient with various types of objects, implemented in WebGL, making it practical for many purposes.
ACM Transactions on Graphics, 2019
Microfacet distributions are considered nowadays as a reference for physically plausible BSDF rep... more Microfacet distributions are considered nowadays as a reference for physically plausible BSDF representations. Many authors have focused on their physical and mathematical correctness, while introducing means to enlarge the range of possible appearances. This article is dedicated to Normal Distribution Functions (NDFs) and the influence of their shape on the rendered material aspect. We provide a complete framework for studying the impact of NDFs on the observed Bidirectional Scattering Distribution Functions (BSDFs). To explore very general NDFs, manually controlled by the user, and including anisotropic materials, we propose to use a piecewise continuous representation. It is derived with its associated Smith shadowing-masking function and importance sampling formulations for ensuring efficient global illumination computations. A new procedure is also proposed in this article for generating an explicit geometric micro-surface, used to evaluate the validity of analytic models and m...
Computer Graphics Forum, 2017
This paper focuses on microfacet reflectance models, and more precisely on the definition of a ne... more This paper focuses on microfacet reflectance models, and more precisely on the definition of a new and more general distribution function, which includes both Beckmann's and GGX distributions widely used in the computer graphics community. Therefore, our model makes use of an additional parameter γ, which controls the distribution function slope and tail height. It actually corresponds to a bivariate Student's t-distribution in slopes space and it is presented with the associated analytical formulation of the geometric attenuation factor derived from Smith representation. We also provide the analytical derivations for importance sampling isotropic and anisotropic materials. As shown in the results, this new representation offers a finer control of a wide range of materials, while extending the capabilities of fitting parameters with captured data. This file contains the mathematical justifications concerning the Student's t Normal Distribution Function (STD). We provide all the mathematical details and links for all the expressions given in the paper: in-depth presentation of the new distributions family; proof that STD actually corresponds to Beckmann when γ → ∞; analytical smith-Bourlier GAF derivation based on STD, and discussion about correlated and uncorrelated GAFs; formulas for the specific cases of the discrete values of γ; details about the analytical cumulative density function and its inversion for importance sampling. We also provide the demonstration for using the visible normals distribution and the constraints which should be handled in the practical case, as well as some implementation details.
IEEE transactions on visualization and computer graphics, 2017
Specular microfacet distributions have been successfully employed by many authors for representin... more Specular microfacet distributions have been successfully employed by many authors for representing glossiness of materials. They are generally combined with a Lambertian term to account for the colored aspect. These representations make use of the Fresnel reflectance factor at the interface, but the transmission factor at the interface should also be managed. One solution is to employ a multi-layered model with a single layer for the rough interface, which requires a numerical simulation for handling the multiple reflections of light between the substrate and the interface. In this paper, we propose rather to use a representation corresponding to a Fresnel interface lying on a Lambertian substrate, for which the multiple reflections of light between the interface and the substrate can be expressed analytically. With this interfaced Lambertian model, we show how Fresnel transmission affects the material appearance for flat and rough surfaces with isotropic and anisotropic distributio...
Depuis quelques années, les méthodes de rendu basé-image connaissent un succès croissant car elle... more Depuis quelques années, les méthodes de rendu basé-image connaissent un succès croissant car elles permettent de visualiser une scène réelle ou virtuelle presque uniquementà partir d'images. Grâceà un compromis entre simplicité de stockage et richesse de représentation, le lumigraphe est probablement aujourd'hui la structure de données basée-image la plus utilisée dans la communauté graphique. Actuellement, l'une de nos préoccupations concerne le rééclairage de lumigraphes,éventuellement pour les intégrerà l'intérieur d'environnements virtuels. Le point clé de cetteétude est la normale de la surface associéeà l'objet puisque d'une part elle permet de retrouver la position des sources de lumière, leurs caractéristiques ainsi que celles de la surface de l'objet et d'autre part elle est primordiale pour prendre en compte un nouveléclairage. Dans cet article, notre contribution concerne une méthode de reconstruction géométrique dédiée aux lumigraphes et deux algorithmes d'estimation des normales. La premièreétape consisteà estimer la géométrie de l'objet selon une méthode de sculpture basée sur la silhouette, le résultat produit est une hiérarchie de voxels représentant sa forme. Nous proposonségalement de reconstruire un maillage grâceà une version adaptée de l'algorithme des marching cubes et l'évaluation de la normale est réalisée soit directementà partir du maillage produit, soit uniquementà l'aide de la hiérarchie de voxels. Uneétude comparative permet d'estimer la qualité des résultats obtenusà la fois pour la reconstruction géométrique et pour les deux méthodes d'estimation des normales.
La compression de modèles géométriques est un enjeu important ces dernières années. En effet, les... more La compression de modèles géométriques est un enjeu important ces dernières années. En effet, les modèles deviennent de plus en plus volumineux, ce qui pose des problèmes de stockage sur disque ou de latence lors de transmission sur des réseaux de télécommunication. Les méthodes de compression basées connectivité remportent un franc succès puisqu'elles conservent la topologie initiale des maillages, la topologie étant nécessaire dans de nombreuses applications telles que certaines opérations de modélisation géométrique, pour la construction de structures performantes en visualisation (graphes de visibilité), pour la décimation de maillages (création de niveaux de détail), etc. Nous proposons dans cet article la première technique de compression sans perte de la connectivité permettant de traiter des subdivisions variétés (manifold) en dimension quelconque : maillages surfaciques, volumiques, avec des cellules quelconques, avec ou sans bords, orientables ou non. Notre méthode s&#...
In this paper, we propose to use image pixels for geometry reconstruction with a shape from silho... more In this paper, we propose to use image pixels for geometry reconstruction with a shape from silhouette approach. We aim at estimating shape and normal for the surface of a single object seen through calibrated images. From the voxel-based shape obtained with the algorithm proposed by R. Szeliski in (18), our main contribution concerns the use of image pixels together with marching cubes for constructing a triangular mesh. We also provide a mean for estimating a normal inside each voxel with two different methods: (i) using marching cubes triangles and (ii) using only voxels. As seen in the results, our method proves accurate even for real objects acquired with a usual camera and an inexpensive acquisition system.
Proceedings of the 28th annual conference on Computer graphics and interactive techniques, 2001
Proceedings of the 2nd international conference on Computer graphics, virtual Reality, visualisation and interaction in Africa - AFRIGRAPH '03, 2003
Computational Imaging and Vision
In this paper, we propose a new method for estimating jointly light sources and reflectance prope... more In this paper, we propose a new method for estimating jointly light sources and reflectance properties of an object seen through images. A classification process firstly identifies regions of the object having the same appearance. An identification method is then applied for jointly (i) deciding what light sources are actually significant and (ii) estimating diffuse and specular coefficients for the surface.
The Visual Computer, 2005