-
On-Page SEO (On-Site SEO): 보유하고 있는 웹사이트 상에서 수행하는 최적화 작업
- 테크니컬 SEO
- 기술적인 부분으로 SEO를 고려하는 방식을 뜻한다. robots.txt, sitemap.xml 파일을 설정함으로써 검색엔진에 더 잘 노출될 수 있도록 한다.
- 컨텐츠 SEO
- 컨텐츠의 내용이 얼마나 알차고 관련 주제와 연관이 되`어있는지 등의 내용으로 검색엔진 노출을 고려하는 방식이다.
- 테크니컬 SEO
-
Off-Page SEO: 웹사이트가 아닌 다른 공간에서 이루어지는 최적화 작업
- 내부 링크
- 외부 링크
-
테크니컬 SEO
- 타이틀은 검색 시 페이지의 제목을 나타내는 부분이다. 어떻게보면 사용자 입장에서 페이지에 접속할지를 결정하는 가장 중요한 요소라고 할 수 있다.
- 메타 디스크립션은 페이지의 부제목과 같은 것으로 페이지에 대한 부가 설명을 한다.
<meta name="description" />
을 이용한다. - 301 리다이렉션은 URL을 영구적으로 변경할 때, 302 리다이렉션은 임시로 페이지를 옮길 때 사용한다. 이 둘의 차이점이라고 한다면 301 리다이렉션을 더 일반적으로 사용하고, 301 리다이렉션은 그 이전 URL이 갖고 있던 정보에 대한 Rank 점수 등을 그대로 물려받는다는 점이 있다.
- 404 에러에 대한 페이지는 사이트의 신뢰도와 연관이 깊기 때문에 검색 엔진은 이 깨진 페이지를 좋지 않은 페이지라 여기고 점수에 대한 페널티를 줄 수 있다.
canonical
태그는<head>
태그 안에 삽입하는 코드로 현재 웹 페이지의 대표 URL주소를 검색엔진에게 알려준다.
예를 들어, 같은 내용을 가진 URL이 여러 개 있다면canonical
태그를 이용해 하나의 대표되는 URL로 안내할 수 있는 것이다.<a>
태그의 안에 들어가는 안내 텍스트가 얼마나 그 사이트에 대한 표현을 정확하게 하느냐에 따라 점수 부여가 달라진다.
가장 최악은 안내 텍스트를 URL로 표시하는 것<img alt="">
이미지 태그의alt
속성을 신경써서 작성하는 것은 생각보다 구글 이미지 검색에서 효율을 볼 가능성이 높다.- 이미지에 대한 출처는 반드시 밝히는 습관을 들이자. 다른 곳에서 가져 왔는데 출처를 밝히지 않으면 검색 엔진에게 결코 좋은 점수를 받을 수 없다.
robots.txt
파일을 이용해 크롤러의 행동 경로에 간섭할 수 있다는 점을 적극 활용하자. 예를 들어, 컨텐츠의 다중 중복은 검색엔진에게 좋은 점수를 받을 수 없다. 의도했던 하지 않았던 말이다. 이런 경우, 중복되는 컨텐츠들이 많은 URL을robots.txt
에 넣으면 크롤러는 이 곳에 등록된 곳에 접근하지 못하게 된다. 한편으로는robots.txt
는 사이트맵 위치를 포함하기 때문에 이 위치를 알려주는 역할도 한다.sitemap.xml
은 보통 웹사이트의 모든 페이지들을 나열한 파일이다. 이 파일이 왜 존재해야하냐면, 크롤러가 크롤링 과정에서 찾지 못하는 페이지가 나올 수 있는데 그런 경우를 대비해 노출시키고 싶은 모든 페이지들을 제대로 알려줄 수 있는 기대효과가 있다.- 오픈그래프는 페이스북에 공유되었을 시에 이 페이지에 대한 정보를 어떻게 표현할 것인지에 대한 내용이다.
<meta og:title>
,<meta og:description>
<meta og:image>
등og
를 붙여 오픈그래프임을 알려줄 수 있다. 이 것이 왜 유용하냐면 검색 엔진은 사이트의 점수를 판단할 때 200가지도 넘는 항목에 대해서 면밀하게 판단을 하는데, 그 중 하나가 얼마나 많은 곳에서 참조되고 있는지, 얼마나 신뢰성 있는 곳에서 참조되고 있는지에 대한 여부를 판단한다. 오픈그래프는 페이스북의 공유와 관련된 지표이므로 SEO를 고려한다면 당연히 신경써야하는 부분이다. - 트위터카드도 오픈그래프와 마찬가지의 내용이다.
-
컨텐츠 SEO
- 구글 SEO 가이드북에 따르면, 좋은 컨텐츠는 아래의 모든 내용을 충족하는 컨텐츠라고 한다.
- 표준 문법을 따를 것 / 비지니스와 관련이 있을 것 / 풍부한 어휘를 담을 것 / 최신 내용을 담을 것 / 콘텐츠 소비자의 눈높이에 맞출 것 /
독착정인 내용을 담고 있을 것 / 많은 관심을 가질 수 있을만한 내용일 것
상식적인 범위내에서 생각해봐도 추상적인 내용들이 많은데 검색엔진이 어떻게 판단할 수 있는지 신기하기만 하다.
- 표준 문법을 따를 것 / 비지니스와 관련이 있을 것 / 풍부한 어휘를 담을 것 / 최신 내용을 담을 것 / 콘텐츠 소비자의 눈높이에 맞출 것 /
독착정인 내용을 담고 있을 것 / 많은 관심을 가질 수 있을만한 내용일 것
- 키워드는 사용자의 검색 단어에 페이지를 노출시킬 수 있는지에 대한 질문에 가장 근접해있는 매우 중요한 요소다. 제대로 된 마케팅을 고려한다면
키워드와 트래픽의 상관관계에 대한 유료 프로그램을 이용하는 것이 좋겠지만, 일반적으로는 검색량과 키워드의 경쟁도를 분석해 키워드를 선정해야한다.
키워드는 사용자가 위치한 국가에 대한 문화적 특징에 대한 고려, 자세한 검색어와 간략한 검색어에 대한 장단점 분석, 특정 단어의 하루 검색량 등 상당히 복잡한 분석단계를 거쳐야하는만큼 거기에 따른 수익에 대한 기대도 가장 높다고 할 수 있다. - 콘텐츠는 키워드와 메타 디스크립션, 타이들 등 페이지에 대한 소개 정보등이랑 얼마나 매치하고 관련있는 내용을 담고 있는지에 대한 여부로 점수가 판단된다.
- 이 부분이 이제 나를 비롯한 대부분의 사람들이 생각할만한 내용인데, "점수를 좋게 받으려면 그냥 여러 내용을 만들어서 배포하면 안되나?" 와 비슷한 생각인데,
결론부터 말하자면 절대적으로 안된다. 이러한 더러운(?) 행위를 키워드 스터핑이라고 부르고 쉽게 말해 내용 뻥튀기하다가 걸리면 잡아 족친다(?)는 내용이다.
얼마나 심하냐면 일시적 혹은 상황에 따라 영구적인 제재를 가할 정도로 강한 규제를 갖고 있다.
- 구글 SEO 가이드북에 따르면, 좋은 컨텐츠는 아래의 모든 내용을 충족하는 컨텐츠라고 한다.
-
오프페이지 SEO
- 내부 링크는 같은 사이트내의 한 페이지 -> 다른 페이지 로 이동할 수 있는 링크를 뜻한다.
- 외부 링크는 현재 나의 페이지 -> 다른 사이트의 페이지 (다른 도메인)으로 이동할 수 있는 링크를 뜻한다.
이 때 다른 외부 페이지에서 다시 나의 페이지로 돌아올 수 있는 링크를 백링크라고 표현한다.
여담으로, 외국 기술블로그의 어떤 한 내용이 너무 좋아 번역을 하고 싶을 때 원작자의 동의를 구한 후에 진행하는데, 그 때 허락을 받게되면 백링크를 걸어달라는 요청을 받을 때가 있다. 이 경우엔 즉 그 쪽에서도 내 페이지 링크를 걸고, 내 쪽에서도 백링크를 걸겠다는 뜻이다. - 이 때 신뢰성이 높은 사이트(유명 항공사, 언론사 등)에서 백링크를 받게되면 그저 그런 사이트에서 몇백, 몇천개의 링크를 받는 것보다 높은 점수를 받을 수 있다. 근데 이러한 점을 노리고 고의로 백링크를 무수히 많이 생성한다면, 이 역시 검색 엔진에게 천벌(?)을 받게 될테니 주의하자.
-
Notifications
You must be signed in to change notification settings - Fork 0
moonformeli/TIL
Folders and files
Name | Name | Last commit message | Last commit date | |
---|---|---|---|---|
Repository files navigation
About
Today I Learned
Resources
Stars
Watchers
Forks
Releases
No releases published
Packages 0
No packages published