1. robots.txt 에서 봇 접근 룰을 설정 (대부분의 공식 봇은 룰 규칙을 따르지만 일반 크롤러들은 UserAgent / IP 수준으로 차단 추천 합니다)
2. 가끔 링크를 누르면 랜덤 서브도메인으로 연결되어서 https 인증서 불일치로 오류 발생합니다.
정상적인 크롤러 봇 (네이버,구글 등) 에서는 인증서 불일치로 생기는 페이지는 신뢰성이 없다고 판단하여 SEO에 악영향을 줍니다.
옛날 초창기에 셀프 백링크 참조를 위해서 쓰던 트릭이긴했으나 와일드카드 (*.gezip.net / gezip.net) 인증서를 사용하지 않으면 오히려 안좋아요 (에드센스 클릭 단가를 떨어트리는 요인이기도합니다)
3. 현재 gezip.net 의 http 헤더를 보면 페이지 출력을 압축하지 않습니다. 이는 일반 raw html로 구성된 그누보드 기반사이트에서는 불필요한 트래픽을 많이 소모하는 요인이 될 수 있습니다. 컨텐츠는 cdn으로 분리하되 사이트 자체의 압축을 활성화하거나 reverse proxy로 캐싱하는 방법을 추천드립니다. 운영비용 중 많은 비중을 차지하는 서버비용을 대폭 줄일 수 있습니다.