Ciência_Iscte
Comunicações
Descrição Detalhada da Comunicação
LFVS-Mamba: State-Space Model for Light Field View Synthesis
Título Evento
2025 International Conference on Visual Communications and Image Processing (VCIP)
Ano (publicação definitiva)
2025
Língua
Inglês
País
Áustria
Mais Informação
Web of Science®
Esta publicação não está indexada na Web of Science®
Scopus
Esta publicação não está indexada na Scopus
Google Scholar
Esta publicação não está indexada no Google Scholar
Esta publicação não está indexada no Overton
Abstract/Resumo
Light Field View Synthesis (LFVS) methods using Convolutional Neural Networks (CNNs) and Vision Transformers (VTs) have been extensively studied: CNNs excel at learning local spatial features via hierarchical receptive fields but cannot capture long-range global dependencies, while VTs inherently model global context through self-attention at the cost of quadratic computation and memory complexity. To address these issues, we propose LFVS-Mamba, which integrates a State-Space Module (SSM) with a Selective Scanning Mechanism to efficiently capture long-range dependencies. LFVS-Mamba processes 2D slices of the 4D LF to fully exploit spatial context, complementary angular information, and depth cues. The LFVS-Mamba comprises three modules to progressively synthesize dense LFs: (i) Shallow Feature Extraction (SFE), (ii) Spatial-Angular Depth Feature Extraction (SADFE), and (iii) Angular Upsampling (AU). Experimental results on standard LF benchmarks demonstrate that LFVS-Mamba consistently outperforms existing methods.
Agradecimentos/Acknowledgements
--
Palavras-chave
light field,view synthesis,angular consistency,state space model,cross-scanning
Registos de financiamentos
| Referência de financiamento | Entidade Financiadora |
|---|---|
| UID/50008/2025 –Instituto de Telecomunicações | FCT/MECI |
Registos Associados
Esta comunicação está associada ao registo seguinte:
English