Comunicação em evento científico
LFVS-Mamba: State-Space Model for Light Field View Synthesis
Muhammad Zubair (Zubair, M.); Paulo Nunes (Nunes, P.); Caroline Conti (Conti, C.); Luís Ducla Soares (Soares, L. D.);
Título Evento
2025 International Conference on Visual Communications and Image Processing (VCIP)
Ano (publicação definitiva)
2025
Língua
Inglês
País
Áustria
Mais Informação
Web of Science®

Esta publicação não está indexada na Web of Science®

Scopus

Esta publicação não está indexada na Scopus

Google Scholar

Esta publicação não está indexada no Google Scholar

Esta publicação não está indexada no Overton

Abstract/Resumo
Light Field View Synthesis (LFVS) methods using Convolutional Neural Networks (CNNs) and Vision Transformers (VTs) have been extensively studied: CNNs excel at learning local spatial features via hierarchical receptive fields but cannot capture long-range global dependencies, while VTs inherently model global context through self-attention at the cost of quadratic computation and memory complexity. To address these issues, we propose LFVS-Mamba, which integrates a State-Space Module (SSM) with a Selective Scanning Mechanism to efficiently capture long-range dependencies. LFVS-Mamba processes 2D slices of the 4D LF to fully exploit spatial context, complementary angular information, and depth cues. The LFVS-Mamba comprises three modules to progressively synthesize dense LFs: (i) Shallow Feature Extraction (SFE), (ii) Spatial-Angular Depth Feature Extraction (SADFE), and (iii) Angular Upsampling (AU). Experimental results on standard LF benchmarks demonstrate that LFVS-Mamba consistently outperforms existing methods.
Agradecimentos/Acknowledgements
--
Palavras-chave
light field,view synthesis,angular consistency,state space model,cross-scanning
Registos de financiamentos
Referência de financiamento Entidade Financiadora
UID/50008/2025 –Instituto de Telecomunicações FCT/MECI
Registos Associados

Esta comunicação está associada ao registo seguinte: