[@Pokemonjwp]
@누가내꺼먹었냐
요 밑에 대댓글이 더 안달리는데 오히려 AI 기반 필터라서 그런 현상이 생기는 겁니다.
합성하려면 그 주변부 색감, 조도, 톤 등등에 달 모양에 따라 수십 수백가지 달을 모양에 맞게 붙인 티 나지 않게 합성해야하는데 오히려 그게 더 힘듭니다.
수학적으로 사실 필터 강도 (필터값과 갯수)의 차이이지 다르지 않습니다. AI는 그냥 저 필터를 굉장히 많이 쌓고 안의 값을 학습하도록 하는 것 뿐입니다.
물론 그래도 사람이 인지하기에 저렇게 강한 필터는 그 자체로 합성의 영역이 아니냐고 하시면 그건 맞는 말 같습니다. 하지만 어느부분부터 합성이라고 할지가 애매하긴 하겠지만요. 예를 들어 제 맨 마지막 예시에서 1개 필터를 쓴거는 아무도 합성이라 하지 않겠죠. 그럼 이걸 만개 이어붙여서 위 AI 성능이 나왔다고 하면 이건 합성일까요? 그런 문제가 있을 것 같네요.
저는 저게 CNN 기반 모델에 GAN loss를 적용했을때 달이라는 training dataset에 overfitting 되어서 말씀하신거처럼 OOD input가 들어옴에 따라 LLM에서처럼 hallucination된 결과라고 생각하는데요. 제 생각이 틀렸을까요? 그렇다면 Lapaclian filter랑 어떤 근본적인 차이가 있다고 볼 수 있을까요? 저는 솔직히 그냥 parameter 개수 차이에 따라 생기는 차이 같습니다.
혹시 이게 아니라면 OOD input이 들어왔을때 합성인지 필터인지 구분하려면 어떻게 해야할까요? 솔직히 좀 애매하지 않을까요? 제가 이쪽이라 해보면 Hard coding cv algorithm이나 trainable filter나 둘다 사실 실제 달이 아닌 크레이터가 들어와도 비슷한 결과가 나오더리구요. 더군다나 제가 알고 있는 바로는 이 정도의 processing time에서 이런 결과를 만드는게 hard coding algorithm보다 오히려 좋은 결과라서요. 제 전공이 on device AI라서 이런쪽에 민감합니다.
만약 AI model이라면 loss augmentation model architecture 등등의 차원에서 어떤 식의 training strategy를 거쳐야 할까요? 솔직히 AI 모델로는 어떻게 처리를 해도 구라라는 말이 들릴겁니다. 이런 말을 안 들을려면 어떻게 해야할까요?