A Comparative Study of Image-to-Image Translation Techniques for Virtual Object Illumination in Augmented Images
dc.contributor.advisor | Santos, Selan Rodrigues dos | |
dc.contributor.advisor-co1 | Thomé, Antônio Carlos Gay | |
dc.contributor.advisor-co1Lattes | http://lattes.cnpq.br/9282046098909851 | pt_BR |
dc.contributor.advisorID | https://orcid.org/ 0000-0002-8056-1101 | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/4022950700003347 | pt_BR |
dc.contributor.author | Curinga, Artur Maricato | |
dc.contributor.authorLattes | http://lattes.cnpq.br/6740272956017842 | pt_BR |
dc.contributor.referees1 | Santos, Selan Rodrigues dos | |
dc.contributor.referees1ID | https://orcid.org/0000-0002-8056-1101 | pt_BR |
dc.contributor.referees1Lattes | http://lattes.cnpq.br/4022950700003347 | pt_BR |
dc.contributor.referees2 | Thomé, Antônio Carlos Gay | |
dc.contributor.referees2Lattes | http://lattes.cnpq.br/9282046098909851 | pt_BR |
dc.contributor.referees3 | Carvalho, Bruno Motta de | |
dc.contributor.referees3ID | https://orcid.org/0000-0002-9122-0257 | pt_BR |
dc.contributor.referees3Lattes | http://lattes.cnpq.br/0330924133337698 | pt_BR |
dc.contributor.referees4 | Campos, André Maurício Cunha | |
dc.contributor.referees4Lattes | http://lattes.cnpq.br/7154508093406987 | pt_BR |
dc.date.accessioned | 2022-07-29T11:53:07Z | |
dc.date.available | 2022-07-29T11:53:07Z | |
dc.date.issued | 2022-07-14 | |
dc.description.abstract | O presente trabalho tem como objetivo fazer uma análise comparativa entre dois modelos de redes neurais profundas no contexto de realidade aumentada, visando produzir imagens realistas de ambientes internos com um objeto virtual inseridos. Os modelos de aprendizado profundo foram treinados para re-iluminar e gerar sombras a partir de uma imagem com um objeto virtual inserido sem o contexto de iluminação da cena.Para a produção da comparação, o dataset Indoor Shadows foi construído com 4826 conjuntos de imagens a partir do 3D-Front. Os dois modelos Pix2Pix e ShadowGAN foram treinados usando os otimizadores SGD e Adam e comparados a partir da semalhança das imagens produzidas com uma imagem de referência. As métricas L1, L2 e MSSIM foram utilizadas para medir a similaridade das imagens.O modelo ShadowGAN treinado com o otimizador Adam apresentou o melhor resultado com a métrica MSSIM e o modelo Pix2Pix treinado com SGD os melhores resultados com as métricas L1 e L2. Apesar disso, mostrou-se que há um grandes limitações em amba | pt_BR |
dc.description.resumo | This work is a comparison study between two Deep Neural Network (DNN) models in the augmented reality context, aiming to produce visually coherent augmented indoor images with a virtual object inserted. We trained DNN models to generate coherent shadows and illumination for an unlit object given a computer generated photorealistic indoor environment as a reference. The goal is to add the artificially lit object to the reference scene and make it blend in nicely when seen by an human viewer unaware of the interference. We develop a dataset Indoor Shadows with 4826 set of images from the 3D-Front scene dataset, in order to use it as our benchmark. The Pix2Pix and ShadowGAN were trained using the SGD, and Adam, and compared regarding the generated images with a ground truth. We used the L1, L2, and MSSIM metrics to evaluate the results of the trained models. We found that the ShadowGAN trained with Adam had the best results regarding the MSSIM metric and the Pix2Pix trained with SGD and the best results with L1, and L2. We concluded that both techniques are very limited, and the generated images are easily distinguishable from the ground truth. | pt_BR |
dc.identifier.citation | CURINGA, Artur Maricato. A Comparative Study of Image-to-Image Translation Techniques for Virtual Object Illumination in Augmented Images. 2022. 40 f. TCC (Graduação) - Curso de Ciência da Computação, Dimap - Departamento de Informática e Matemática Aplicada, Universidade Federal do Rio Grande do Norte, Natal, 2022. | pt_BR |
dc.identifier.uri | https://repositorio.ufrn.br/handle/123456789/48844 | |
dc.language | en | pt_BR |
dc.publisher | Universidade Federal do Rio Grande do Norte | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.publisher.department | DIMAp - Departamento de Informática e Matemática Aplicada | pt_BR |
dc.publisher.initials | UFRN | pt_BR |
dc.publisher.program | Ciência da Computação | pt_BR |
dc.rights | Attribution 3.0 Brazil | * |
dc.rights.uri | http://creativecommons.org/licenses/by/3.0/br/ | * |
dc.subject | Augmented Reality | pt_BR |
dc.subject | Neural Networks | pt_BR |
dc.subject | Illumination | pt_BR |
dc.subject | Realidade Aumentada | pt_BR |
dc.subject | Redes Neurais | pt_BR |
dc.subject | Iluminação | pt_BR |
dc.title | A Comparative Study of Image-to-Image Translation Techniques for Virtual Object Illumination in Augmented Images | pt_BR |
dc.title.alternative | Estudo comparativo de técnicas de iluminação de objetos virtuais em imagens de realidade aumentada usando transformação de image-para-image | pt_BR |
dc.type | bachelorThesis | pt_BR |
Arquivos
Pacote Original
1 - 1 de 1
Nenhuma Miniatura disponível
- Nome:
- ComparativeStudyofImage_Curinga_2022.pdf
- Tamanho:
- 10.41 MB
- Formato:
- Adobe Portable Document Format
Nenhuma Miniatura disponível
Licença do Pacote
1 - 1 de 1
Nenhuma Miniatura disponível
- Nome:
- license.txt
- Tamanho:
- 1.45 KB
- Formato:
- Item-specific license agreed upon to submission
Nenhuma Miniatura disponível