Lịch sử của SEO 1990- 2010

Webmaster và các nhà cung cấp nội dung đã bắt đầu tối ưu hóa các trang web cho công cụ tìm kiếm vào giữa những năm 1990.

Ban đầu, các webmaster bắt đầu gửi link liên kết hay url của trang web đến các công cụ tìm kiếm, các công cụ này sẽ gửi một spider ” nhện mạng ” đến trang website đó, website sẽ đựoc thu thập dữ liệu, sau đó được index lên máy chủ tìm kiếm, nơi đây các thông tin về website sẽ đượcu lưu trữ lại, các từ khóa của website, các link liên kết trong website đó, các spider này sẽ làm việc index lên máy chủ theo lịch trình mà các công cụ tìm kiếm quy ước.

Người sở hữu trang web bắt đầu để nhận ra những giá trị của việc có các trang web của họ và có thể nhìn thấy được xếp hạng cao trong kết quả công cụ tìm kiếm, và tạo ra các cơ hội cho seo, và đựoc chia ra làm hai dạng, seo truyền thống và seo gian lận. Theo nhà phân tích Danny Sullivan, cụm từ “Tối ưu hóa công cụ tìm kiếm” sử dụng rất nhiều trên mạng vào năm 1997.

Đầu phiên bản của thuật toán tìm kiếm dựa vào quản trị trang web cung cấp thông tin như các thẻ meta từ khoá, hoặc tập tin chỉ mục như ALIWEB. Thẻ meta cung cấp một hướng dẫn đến nội dung của mỗi trang.

Sử dụng dữ liệu meta vào các trang chỉ mục được tìm thấy sẽ được ít hơn đáng tin cậy, tuy nhiên, vì những sự lựa chọn của webmastermà các thẻ meta có sự chính xác trong khả năng updata website lên má chủ tìm kiếm. Những dữ liệu không chính xác, không đầy đủ, và không nhất quán trong thẻ meta có thể gây ra sự xếp hạng không đúng vị trí cho các tìm kiếm không liên quan. Việc cung cấp nội dung đựoc tối ưu hóa và một số thuộc tính trong mã nguồn HTML đối với một trang web cần phải chính xác để có được kết quả tốt trên công cụ tìm kiếm.

Bằng cách dựa quá nhiều vào các yếu tố như mật độ từ khóa đó được độc quyền trong vòng kiểm soát của một webmaster, công cụ tìm kiếm sớm bị lạm dụng vào thao tác xếp hạng. Để cung cấp kết quả tốt hơn cho người dùng của họ, công cụ tìm kiếm đã phải thích ứng để đảm bảo kết quả của các trang đã cho thấy các kết quả tìm kiếm có liên quan nhất, thay vì các trang không liên quan nhồi với từ khoá nhiều bởi webmaster vô đạo đức. Các công cụ tìm kiếm đã phản ứng lại bằng cách phát triển phức tạp hơn thuật toán xếp hạng, có tính đến các yếu tố bổ sung mà gây nhiều khó khăn cho quản trị web để thao tác.

Sinh viên ở Đại học Stanford,, Larry Page và Sergey Brin, đã phát triển “backrub,” một công cụ tìm kiếm dựa trên một thuật toán toán học để đánh giá sự nổi tiếng của các trang web. Và đã cho ra đời thuật toán Pagẻank, PageRank là một thuật toán đánh giá khả năng liên kết sâu và rộng của website đó. Thuật toán PageRank ước tính khả năng của một trang nhất định qua yếu tố người sử dụng web vào xem website và số người ngẫu nhiên vào website và các liên kết từ website đó đến các website khác và ngược lại. Như vậy, PageRank được xác định yếu tố ngẫu nhiên truy cập cho người dùng cao hơn. Thực tế thì lại khác, Pagerank hiện nay chỉ là một yếu tố xác định thứ hạng trên công cụ tìm kiếm thông qua mức độ phổ biến liên kết và số người dùng ngẫu nhiên truy cập.

Page và Brin thành lập Google vào năm 1998. Google ngày càng thu hút người dùng tìm kiếm và sử dụng ngày càng tăng do có nhiều người thích tính thiết kế website đơn giản của google.Các yếu tố trang web như PageRank và phân tích siêu liên kết được coi là những yếu tố quan trọng (như tần số từ khóa, thẻ meta, tiêu đề, liên kết và cấu trúc trang web) để cho phép website xuất hiện trên các công cụ tìm kiếm. Nhiều trang web bắt đầu tập trung vào việc trao đổi, mua, bán và các liên kết, hay hơn hết là việc spam liên kết website, thường đựoc xây dựng trên quy mô lớn để đạt đựoc thứ hạng cao trên công cụ tìm kiếm google.

Đến năm 2004, công cụ tìm kiếm google đã kết hợp một loạt các yếu tố không tiết lộ trong các thuật toán xếp hạng của họ để giảm tác động của các thao tác liên kết. Google nói : các thuật toán đựoc sử dụng hơn 200 cách khách nhau để xác định thứ hạng website trên công cụ tìm kiếm để giảm thiểu các thủ thuật can thiệp thứ hạng google. Đáng chú ý như Rand Fishkin, Barry Schwartz, Aaron Wall and Jill Whalen, đã nghiên cứu các phương pháp khác nhau để tối ưu hóa công cụ tìm kiếm, và đã công bố ý kiến của mình tại các diễn đàn trực tuyến và website trao đổi về SEO, cùng nhìn nhận về sự quan trọng của website trên công cụ tìm kiếm..

Năm 2005, Google bắt đầu cá nhân hóa những kết quả tìm kiếm cho mỗi người dùng. Tùy thuộc vào lịch sử của họ về tìm kiếm trước đây, Google crafted ghi nhận kết của tìm kiếm của người dùng. Năm 2008, Bruce Clay nói rằng “xếp hạng là chết” vì tìm kiếm được cá nhân hoá. Nó sẽ trở thành vô nghĩa như thế nào khi mỗi người chỉ thấy mỗi kết quả khác nhau và độc lập.

Năm 2007, Google công bố một chiến dịch chống lại các liên kết trả tiền ( chuyển PageRank ). Ngày 15 tháng 6 năm 2009, Google tiết lộ rằng họ đã thực hiện các biện pháp để giảm thiểu những tác động của PageRank do sử dụng các thuộc tính nofollow trên các liên kết. Matt Cutts, Một phần mềm nổi tiếng kỹ sư tại Google, tuyên bố rằng Google Bot sẽ không theo các liên kết có thẻ ” nofollow ” để ngăn chặn việc sử dụng liên kết bừa bãi hay liên kết các website không tương thích, tránh cho việc thất thoát thứ hạng và đánh giá SEO. Để tránh việc thất thoát ranking ở trên,Các nhà phát triển web nên tránh sử dụng Javascript để giảm thất thoát thứ hạng và thẻ ” nofollow ” để nâng tầm quan trọng page rank lên. Ngoài ra một số giải pháp đã được đề xuất bao gồm việc sử dụng iframes, Flash và Javascript vẫn nên hạn chế.

Trong tháng 12 năm 2009 của Google tuyên bố sẽ được sử dụng lịch sử tìm kiếm web của tất cả người dùng của mình để xếp hạng kết quả tìm kiếm

Tìm kiếm theo thời gian thực được giới thiệu vào cuối năm 2009 trong một nỗ lực để làm cho kết quả tìm kiếm kịp thời và có liên quan.Với sự phát triển của các công nghệ truyền thông, kết quả tìm kiếm thời gian thực giúp cho website hiện thị nhanh chóng trên công cụ tìm kiếm một cách nhanh chóng, giúp người tìm kiếm nắm bắt hiện tại thông tin trong môi trường siêu thông tin.

Năm 2010 : Hãy chờ sự thay đổi mới từ công cụ tìm kiếm số một thế giới – Google – History SEO 1990 – 2010

Tôi nhận thấy VietISO đáng tin cậy, và là một chuyên viên trong lĩnh vực SEO. Chúng tôi đã đạt được top 5 bảng xếp hạng với 90% của các từ khóa của chúng tôi chỉ trong một vài tháng. Tôi khuyên bạn nên sử dụng dịch vụ SEO của VietISO khi bạn hy vọng đạt được thứ hạng cao trong các công cụ tìm kiếm lớn.

y kien

Nguyễn Cường