Report/Docs/2024-10-17/report_1017.md

45 lines
3.2 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 2024-10-17感知智能组会汇报
# 一、近期工作
## 1.论文阅读
### 1其他领域
* 在之前对于遮挡图像补全的探索上阅读了三维重建有关的Vid2Avatar和Wild2Avatar论文试图对我们自己的方法进行启示。
* 三维重建方向的论文主要依赖于对象的几何轮廓还需要使用三维信息但我们是基于二维图像考虑结合Wild2Avatar方法的思路针对二维图像和MAE可以从以下部分进行考虑
* 由于二维图像中存在遮挡的不规则性,可以考虑边缘检测/轮廓提取对遮挡部分进行提取;
* 利用二维图像中阴影层次,比如光照、纹理的变化,引入深度估计网络;
* 引入语义,针对遮挡的部分或部位进行划分;
* 引入注意力机制;
### 2MAE相关
* 对之前所看过的MAE相关文章进行阅读找是否可以直接使用的预训练模型。
* MixMAE针对两个图像进行输入变成混合图像再将这两张图像分别重建避免处理无效掩码区域将遮挡/非遮挡图像进行输入,添加边缘检测模块,但可能和原文章结构不符;
* UM-MAE针对多尺度的特征引入Pyramid-based ViT为编码器使用单一输入如果只使用遮挡后的图像或许需要引入语义和注意力
* 其他方面的论文还在探索
## 2.文章调研
针对近两年各大顶会和期刊寻找图像补全/语义补全/遮挡补全方向
大致着眼于denoising、diffusion、image generation、image reconstruction、inpainting方面目前针对网络结构的调研还在持续中
# 二、未来规划
## 1.文章调研
继续调研,完成对该类方向的信息搜索和整理收集
## 2.项目代码
按照上面的想法对预训练模型进行更改
## 3.反思思考
我们针对的方法是面向2D-image的生成像Wild2Avatar方法是面向3D-video去进行遮挡部分的还原主要设计三维重建方面的知识需要利用各个角度下的三维位置信息和像素进行预测。
MAE相关的衍生方向有很多关于很多下游任务也有实现MAE只是一个预训练框架可以进行改变。
* 着重研究之前看过的几篇MAE有关的论文是怎么对MAE进行更改的有什么不同之处在什么方面进行了应用实验是怎样的参数量是怎样的
* 如果要将我们的方法和MAE进行结合要怎么结合
思考下可行性:
* 对Encoder的增强在原先的基础上+特征提取器,比如边缘检测/深度估计,因为遮挡是不规则的
* 引入Attention通过多层注意力机制处理全局上下文
* 结合Sub-task语义分割、边缘检测。是否需要引入语义有关的模块来对图像中的类别进行更好分析
* 对数据的处理data augmentation去模拟遮挡噪声人为遮挡
使用子任务去复现:
* 加模块去看提升?——需要考虑下游任务吗?需要在遮挡行人重识别上去做吗?
* 考虑耗费的gpu资源
明确我们要做的具体目标是?
* 针对行人去做:前景和背景的分离?如果针对行人去做,是否需要对行人进行姿态估计?如何预测?
* 不针对行人,只泛指一般图像去做?