COMO CONHECER ALGORÍTIMO DO GOOGLE
Homem decide pedir o divórcio depois de olhar para esta foto com mais atenção!
Essas frase e várias outras são muito usadas em conteúdos correspondentes de sites, por mais que não tenha a ver com o assunto que está lendo diretamente.
São frases genéricas que servem para atrair os usuários pela curiosidade.
Após clicar nessas frases o usuário vai para um site com muita propaganda, algumas imagens relacionadas ao conteúdo, pouco texto criando um suspense que será respondido se o usuário clicar no link que leva a página seguinte com um texto como: "continue lendo". Depois de clicar no link a página seguinte ainda não dá a informação e essa situação se repete mais umas 5 vezes.
Nesse caso o site conta uma história fictícia sobre uma
imagem, sem revelar a foto no tamanho real. Também fala algo de viagens e traições, coisas que parecem ser tiradas de novela mexicana. Após alguns cliques é
mostrada a imagem com parte de um homem, um rosto, uma mão ou um pé.
Essas histórias são falsas e a imagem manipulada normalmente.
O intuito de fazer uma página dessas é ganhar dinheiro com as propagandas. Para isso fazem páginas que o foco é serem clicadas várias vezes, pois esse é um dos critérios do google para dar mais relevância a página e aparecer nas primeiras posições de pesquisas.
Também já vi youtubers usar a mesma técnica e história em vídeos para vender seus cursos de "como ganhar dinheiro na internet". No começo dizem que no final do video vão revelar o segredo de como ganhar dinheiro na internet, mas no final do vídeo apenas lançam o link para o seu curso.
Por que é importante permitir que o Googlebot rastreie JavaScript e CSS em um site?
A Importância de Permitir que o Googlebot Rastreie JavaScript e CSS para Melhorar o SEO
Em um breve anúncio público, Matt Cutts, um dos representantes do Google, fez uma importante observação sobre o bloqueio do Googlebot para rastrear JavaScript e CSS. Este artigo visa destacar a relevância de permitir o acesso a esses recursos para otimização de mecanismos de busca (SEO), fornecendo insights sobre por que essa prática é essencial para o desempenho de um site nos resultados de pesquisa.
Matt Cutts ressalta que muitos webmasters bloqueiam o acesso ao JavaScript e CSS através do arquivo robots.txt, preocupados com o consumo de largura de banda ou outros recursos. No entanto, ele enfatiza que o Googlebot é capaz de rastrear esses elementos de forma inteligente, e a exclusão desses bloqueios permite uma melhor compreensão do conteúdo da página.
Ao bloquear o acesso ao JavaScript e CSS, muitos webmasters inadvertidamente prejudicam o rastreamento eficaz do site pelo Google. Isso resulta em uma indexação inadequada das páginas e, consequentemente, em uma classificação inferior nos resultados de pesquisa.
O Google tem avançado na capacidade de processar JavaScript e CSS, utilizando esses recursos para entender melhor o conteúdo e a estrutura das páginas da web. Permitir que o Googlebot rastreie esses elementos contribui para uma indexação mais precisa e, portanto, melhora a visibilidade do site nos resultados de pesquisa.
Ao permitir o acesso ao JavaScript e CSS, os webmasters contribuem para a entrega de uma experiência de usuário mais otimizada, o que é fundamental para o SEO. Melhorando a compreensão do conteúdo do site pelo Google, há uma maior probabilidade de que as páginas sejam apresentadas aos usuários relevantes de forma mais proeminente nos resultados de pesquisa.
Em suma, o conselho de Matt Cutts é claro: remover os bloqueios de JavaScript e CSS no arquivo robots.txt pode melhorar significativamente o desempenho do site nos mecanismos de busca. Ao permitir que o Googlebot tenha acesso completo ao conteúdo das páginas, os webmasters aumentam suas chances de obter classificações mais altas e oferecer uma experiência de usuário aprimorada. Portanto, é fundamental reconsiderar a prática de bloquear esses recursos e, em vez disso, permitir ativamente o rastreamento de JavaScript e CSS.
Esse vídeo tem relevancia em 2024?
Sim, o conteúdo mantém sua relevância em 2024, pois aborda princípios fundamentais de otimização de mecanismos de busca (SEO) que não são limitados a um período específico. Os conceitos discutidos, como permitir o rastreamento de JavaScript e CSS pelo Googlebot, a evolução do processamento de JavaScript pelo Google e a importância da experiência do usuário para SEO, são aspectos atemporais que continuam sendo relevantes para a otimização de sites nos mecanismos de busca.
Embora possam ter ocorrido atualizações nos algoritmos de busca do Google e nas práticas recomendadas de SEO ao longo do tempo, os princípios básicos permanecem consistentes. Portanto, o artigo ainda oferece insights valiosos e práticos para quem deseja melhorar o desempenho de seu site nos resultados de pesquisa, mesmo em 2024.