Parceiro: Camisetas Hacker

Camisetas para Nerds & Hackers

Mostrando postagens com marcador SEO. Mostrar todas as postagens
Mostrando postagens com marcador SEO. Mostrar todas as postagens

domingo, 30 de outubro de 2011

10 ferramentas de SEO feias, mas que são demais!

Aqui na SEOmoz temos orgulho de produzir belas ferramentas SEO que brilham, frequentemente com grande sucesso. Para sermos justos, nem sempre chegamos lá. Não se pode julgar um livro pela capa. Algumas das melhores ferramentas de SEO já inventadas nasceram em planilhas caseiras feitas no Google Docs por um nerd com dados diretos das API's, sem qualquer tratamento.
Adoramos ferramentas feias de SEO. Elas são práticas, e frequentemente feitas por um único desenvolvedor. Vamos distribuir essa adoração avaliando essas ferramentas com design que deixam a desejar, mas que na verdade são impressionantes.

01. Shared Count

Por que ela é demais: Introduzida por Tom Critchlow, o Shared Count tem um lugar definitivo na minha barra de favoritos. Ela não só rastreia as estatísticas de compartilhamento social de qualquer página que você deseje, como Facebook, LinkedIn, Google+ e Twitter. Adicionalmente, a Shared Count tem uma API aberta, de forma que você pode construir suas próprias ferramentas em cima dela.
10 ferramentas de SEO feias, mas que são demais!
Por que é feia: É difícil escolher uma ferramenta sem nenhum design. É como chutar cachorro morto.

02. IETester

Por que ela é demais: Sempre que você checa a compatibilidade através de browsers, em nove de dez vezes, o Internet Explorer o jogará em um loop. O  IETester é um browser que pode ser baixado gratuitamente e que permite fazer renderizar diferentes versões do IE em janelas lado a lado para checagem de erros. Há ainda uma opção bacana de debugging para eliminar problemas difíceis de encontrar.

Por que é feia: Nada aparece bem no IE6; nem mesmo o IE6.

03. Blogscape

Por que ela é demais: É a pérola oculta das ferramentas do SEOmoz.. Ela permite monitorar em uma base diária a popularidade de qualquer palavra-chave, marca ou URL. Simplesmente entre com um termo ou domínio e veja todas as vezes que foi mencionada, em  uma lista de milhares de RSS ou mais.
Alé disso, operadores de pesquisas avançados permitem rastrear somente posts que contenham um link para um domínio específico - ótimo para localizar a descoberta de novos links. Nós a usamos semanalmente aqui na SEOmoz para ajudar a medir o sucesso de nossos esforços.

Por que é feia: O screenshot acima não tem má aparência, mas toda vez que o logo neon do lobo verde carrega em um browser, Roger MozBot explode um circuito. (Esta é uma ferramenta PRO. Se você não for um membro PRO, a página de login é mais feia ainda).

04. URI valet

Por que ela é demais: o URI valet combina mais de 10 ferramentas estruturais em uma para fazer auditorias técnicas, revisões de sites além de outras coisas. Você pode ver por trás da cena de qualquer webpage checando os headers do servidor, proporção de texto e HTML, velocidade de download, detalhes de objetos e links rápidos para W3C Validators. Uma de minhas características favoritas é que essa ferramenta não só lista todos os links internos e externos de uma página, como também os valida.

Por que é feia: Quem disse que você precisa de um designer gráfico para fazer uma ferramenta baseada na web? Ou até uma paleta de cor?

5-6. Robots.txt Checkers

http://tool.motoricerca.info/robots-checker.phtml
http://www.frobee.com/robots-txt-check
Por que ela é demais: Não posso decidir qual dessas ferramentas gosto mais - é bom então assinalar as duas. Quando trabalhei no suporte da SEOmoz, essas ferramentas eram essenciais para descobrir problemas ocultos com arquivos robots.txt, mesmo quando não havia erros visíveis. Eles até reportam erros de codificação ocultos em seus arquivos que podem suplantar sua aranha de busca. Garanto que pelo menos um de cada cinco leitores encontrará erros em robots.txt dos quais nem mesmo desconfiavam.

Por que são feias: Sabemos que os arquivos robots.txt  são chatos (com exceções), mas sua interface com o usuário também precisa ser?

07. Wayback Machine

Por que ela é demais: O  Wayback Machine tem um arquivo gigante de páginas web de até 15 anos atrás. Se você desejar pesquisar links antigos, que possam ter desaparecido, ou queira rastrear modificações em websites que resultaram em mudanças de tráfego, a Wayback Machine permite olhar o passado, algumas vezes com resultados dramáticos.
Alguns SEOs compram domínios expirados, reconstroem o website previamente existente, página por página, com os arquivos da Machine. Eles esperam com isso preservar a alusão de continuidade para o Google. (Na minha opinião, ainda não há veredito).

Por que é feia: é legal ver como seu website favorito parecia em 1996, mas e aquele logo? Ainda em Beta?

08. SEO Browser

Por que ela é demais: permite ver rapidamente em uma página toda a sua estrutura SEO importante em um relance, começando como a tag do título e facilitando as coisas a seguir. A página tem um arquivo robots.txt? E analytics instalados? Frequentemente uso a barra de ferramentas SEO para obter informações rápidas sobre a estrutura da página, mas o browser SEO é um velho favorito, e ótimo quando quero ver todas as informações, o text copy inteiro, em uma única página legível.

Por que é feia: Sua tagline é “Veja seu website como um mecanismo de busca o vê”. Infelizmente, a maioria dos mecanismos de busca tem a estética de um arquivo CSV sem cores.

09. Rank Checker

Por que ela é demais: Algumas vezes você quer checar um monte de rankings, e quer fazer isso rápido. O Rank Checker do SEObook roda em seu browser, de forma que não é necessário esperar por um terceiro processamento para checar os rankings para você. Cautela, porque ele roda em seu browser e é muito mais difícil de ser controlado quanto aos efeitos de localização e outros fatores mitigadores, mas mesmo assim, é prático quando a rapidez é mais importante do que a precisão.
10 ferramentas de SEO feias, mas que são demais!
Por que é feia: não é tanto assim, mas é “rápida e suja”.

10. Xenu’s Link Sleuth

Por que ela é demais: Enquanto o Screaming Frog está ganhando as mentes e corações de muitos SEOs, o link Sleuth do Xenu ganha o prêmio do feioso mais original e que além de tudo, é ótimo! A maioria o considera um link checker que roda em seu desktop, mas sua interface simples e sua apresentação de resultados de fácil entendimento fazem com que ele seja obrigatório ao rodar auditorias rápidas em um site. Também é brilhante para garimpar oportunidades com links.
10 ferramentas de SEO feias, mas que são demais!
Por que é feia: depois de fazer uma pesquisa do Xenu no Google, a primeira coisa que você faz é pressionar o botão “back” para checar mais uma vez os seus resultados. Muito provavelmente essa é a pior página da história das ferramentas de SEOs, você vai praguejar porque chegou em um site quebrado de 1992. Mas acredite, está tudo certo com ela!

Este artigo é uma republicação feita com permissão. SEOMoz não tem qualquer afiliação com este site. O original está em
http://www.seomoz.org/blog/seo-tools-that-roc
http://imasters.com.br/artigo/22451/metricas/10-ferramentas-de-seo-feias-mas-que-sao-demais

terça-feira, 18 de janeiro de 2011

Ajude o google encontrar seu site

Ajude o google encontrar seu site
Siga as diretrizes abaixo para ajudar o Google a encontrar, indexar e classificar o seu site. Mesmo que você decida não implementar as sugestões, recomendamos que preste atenção às "Diretrizes de qualidade", que destacam algumas práticas ilícitas que podem levar à remoção do seu site do índice do Google ou a outro tipo de penalidade. Se um site for penalizado, ele não será mais exibido nos resultados no Google.com.br ou em qualquer site parceiro do Google.

Quando o seu site estiver pronto:
Diretrizes de conteúdo e design
  • Construa um site com uma hierarquia clara e links de texto. Cada página deve ser acessada a partir de pelo menos um link de texto estático.
  • Mostre aos usuários um mapa do site que relacione o tópico às partes importantes do seu site. Se o mapa do site tiver muitos links, convém dividi-lo em várias páginas.
  • Utilize um número razoável de links por página.
  • Crie um site útil, com muitas informações e páginas que descrevam de forma clara e precisa o seu conteúdo.
  • Pense nas palavras que os usuários digitariam para encontrar as suas páginas e verifique se elas aparecem no seu site.
  • Tente usar texto, em vez de imagens, para exibir nomes, conteúdo ou links importantes. O rastreador do Google não reconhece texto contido em imagens. Se for necessário usar imagens para conteúdo de texto, avalie a possibilidade de usar o atributo "ALT" para incluir algumas palavras de texto descritivo.
  • Verifique se os elementos e os atributos alt são descritivos e precisos.
  • Verifique se há links quebrados e corrija o código HTML.
  • Se você decidir usar páginas dinâmicas (por exemplo, o URL que contém um caractere “?”), saiba que nem todos os spiders de mecanismos de pesquisa rastreiam as páginas dinâmicas e estáticas. Isso ajuda a manter os parâmetros curtos e a quantidade desses parâmetros pequena.
  • Analise as nossas diretrizes para imagens para conhecer as práticas recomendadas na publicação de imagens.
Diretrizes técnicas
  • Use um navegador de texto como o Lynx para examinar o seu site, pois muitos spiders de mecanismos de pesquisa veem o site do mesmo modo que o Lynx. Se recursos especiais como JavaScript, cookies, IDs de sessão, frames, DHTML ou Flash permitirem que você veja todo o site em um navegador de texto, os spiders dos mecanismos de pesquisa poderão ter dificuldade em rastrear o seu site.
  • Deixe que os robôs de pesquisa rastreiem o seu site sem que IDs de sessão ou argumentos acompanhem suas trajetórias no site. Essas técnicas são úteis para monitorar um determinado comportamento do usuário, mas o padrão de acesso dos robôs é completamente diferente. Se você usar essas técnicas, a indexação do seu site poderá ser incompleta, já que os robôs talvez não consigam eliminar os URLs que têm aspecto diferente, mas que apontam para a mesma página.
  • Verifique se o servidor web suporta o cabeçalho "If-Modified-Since HTTP". Esse recurso permite que o servidor web informe ao Google se houve alteração no conteúdo desde o último rastreamento do site. A utilização desse recurso permite obter economia na largura de banda e nas despesas gerais.
  • Use o arquivo robots.txt no servidor web. Esse arquivo informa aos rastreadores quais diretórios podem ou não ser rastreados. Verifique se ele está disponível no site para que você não bloqueie acidentalmente o rastreador do Googlebot. Acesse http://www.robotstxt.org/faq.html para saber como instruir os robôs quando visitarem o site. Você pode testar seu arquivo robots.txt para verificar se está utilizando-o corretamente com a ferramenta de análise do robots.txt disponível nas Ferramentas do Google para webmasters.
  • Faça um esforço para garantir que os anúncios não interfiram nas classificações dos mecanismos de pesquisa. Por exemplo, os anúncios do Google AdSense e os links do DoubleClick têm o rastreamento bloqueado por um arquivo robots.txt.
  • Se a sua empresa adquirir um sistema de gerenciamento de conteúdo, verifique se o sistema cria páginas e links que podem ser rastreados pelos mecanismos de pesquisa.
  • Use o arquivo robots.txt para evitar a indexação de páginas de resultados de pesquisa ou outras páginas geradas automaticamente que não acrescentam valor para usuários provenientes de mecanismos de pesquisa.
  • Teste o site para verificar se ele aparece corretamente em navegadores diferentes.
  • Monitore o desempenho do seu site e otimize os tempos de carregamento. A meta do Google é fornecer aos usuários resultados mais relevantes e uma ótima experiência. Sites mais rápidos aumentam a satisfação do usuário e melhoram a qualidade geral da web (especialmente para os usuários com conexões lentas com a internet), e esperamos que, à medida que os webmasters aprimoram os seus sites, a velocidade geral da web melhore. O Google recomenda a todos os webmasters monitorar regularmente o desempenho do site usando o Page Speed, o YSlow, o WebPagetest ou outras ferramentas. Para obter mais informações, ferramentas e recursos, consulte Vamos tornar a web mais rápida. Além disso, a ferramenta Desempenho do site nas Ferramentas do Google para webmasters mostra a velocidade do seu site conforme a experiência de usuários do mundo todo.
Diretrizes de qualidade
Essas diretrizes de qualidade tratam das formas mais comuns de comportamento fraudulento ou manipulador, mas o Google pode responder de forma negativa a outras práticas enganosas que não estão listadas aqui (por exemplo, registrar sites com nomes semelhantes aos de sites conhecidos, mas com uma ligeira diferença ortográfica). O fato de uma determinada técnica fraudulenta não constar desta página não significa que ela seja aprovada pelo Google. Os webmasters que se esforçam para manter os princípios básicos certamente proporcionarão uma melhor experiência aos usuários e, consequentemente, obterão melhores classificações do que aqueles que perdem tempo à procura de atalhos e brechas.
Se você acreditar que outro site está abusando das diretrizes de qualidade do Google, denuncie esse site em https://www.google.com/webmasters/tools/spamreport. O Google prefere resolver os problemas de forma automatizada e escalonável. Por isso, tentamos minimizar conflitos em relação a spams. As informações sobre spam que recebemos são usadas para criar algoritmos escalonáveis que reconheçam e bloqueiem futuras tentativas de spam.
Diretrizes de qualidade - princípios básicos
  • Crie páginas principalmente para os usuários, não para os mecanismos de pesquisa. Não engane os seus usuários nem apresente aos mecanismos de pesquisa um conteúdo diferente daquele que você exibe aos usuários, o que normalmente é chamado de "cloaking" (camuflagem do conteúdo real da página).
  • Evite truques para melhorar a classificação nos mecanismos de pesquisa. Um bom parâmetro é imaginar se você se sentiria à vontade se tivesse que justificar as suas ações para um site concorrente. Outro teste útil é perguntar a si mesmo: "Isso ajudará os meus usuários? Eu faria isso se os mecanismos de pesquisa não existissem?"
  • Não participe de esquemas em que os links são usados para aumentar a classificação do seu site ou que utilizem o PageRank. Evite, principalmente, links para autores de spam ou para "más vizinhanças" na web, já que esses tipos de link podem prejudicar a classificação do seu site.
  • Não use programas não-autorizados para enviar páginas, verificar classificações etc. Esses programas consomem recursos de computação e violam os nossos Termos de Serviço O Google não recomenda a utilização de produtos como WebPosition Gold™, que enviam consultas automáticas ou programadas ao Google.
Diretrizes de qualidade - diretrizes específicas
Se concluir que o seu site não cumpre essas diretrizes, modifique-o para que ele cumpra as diretrizes e, em seguida solicite a reconsideração do seu site.


Fonte:http://www.google.com/support/webmasters/bin/answer.py?answer=35769

Conceitos básicos do Google: como o Google rastreia, indexa e publica na web.

Conceitos básicos do Google: como o Google rastreia, indexa e publica na web.

Ao sentar em frente ao seu computador e fazer uma pesquisa no Google, você visualiza quase que instantaneamente uma lista de resultados de toda a web. Como o Google encontra páginas que correspondem à sua consulta e determina a ordem dos resultados de pesquisa? Em termos mais simples, a pesquisa na web é como procurar em um livro muito grande com um índice impressionante que diz exatamente onde tudo está localizado. Quando você faz uma pesquisa no Google, os programas verificam o índice para determinar os resultados de pesquisa mais relevantes que devem ser retornados ("publicados") para você.
Os três principais processos de retorno de resultados de pesquisa são:

Rastreamento
                                                            
O rastreamento é o processo pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google.
Nós usamos um grande conjunto de computadores para buscar (ou "rastrear") bilhões de páginas na web. O programa que faz a busca é chamado Googlebot (também conhecido como robô, bot ou spider). O Googlebot usa um processo de algoritmos: programas de computador que determinam quais sites devem ser indexados, com que frequência e quantas páginas devem ser buscadas em cada site.
O processo de rastreamento do Google começa com uma lista de URLs de páginas web, gerada a partir de processos anteriores de rastreamento e aumentada com dados dos Sitemaps fornecidos por webmasters. Conforme o Googlebot visita cada um desses sites, ele detecta os links de cada página e os inclui na sua lista de páginas a serem rastreadas. Novos sites, alterações em sites existentes e links inativos serão detectados e usados para atualizar o índice do Google.
O Google não aceita pagamento para rastrear um site com mais frequência, o mantem a área de pesquisa de  negócios separada dos serviços geradores de receita do AdWords.
Indexação
                                                              
O Googlebot processa cada uma das páginas que ele rastreia para compilar um imenso índice com todas as palavras encontradas e sua localização em cada página. Além disso, processamos informações incluídas nos principais atributos e tags de conteúdo, como tags Title e atributos ALT. O Googlebot pode processar muitos tipos de conteúdo, mas não todos. Por exemplo, não podemos processar o conteúdo de alguns arquivos de mídia elaborada ou páginas dinâmicas.
Publicação de resultados
                                                            
Quando um usuário insere uma consulta, nossas máquinas pesquisam o índice de páginas correspondentes e retornam os resultados que acreditamos ser os mais relevantes para os usuários. A relevância é determinada por mais de 200 fatores, entre eles o PageRank para uma determinada página. O PageRank é a medida da importância de uma página com base nos links de entrada de outras páginas. Em termos mais simples, cada link para uma página em seu site a partir de outro site adiciona um PageRank ao seu site. Nem todos os links são iguais: o Google trabalha com afinco para melhorar a experiência do usuário, identificando links de spam e outras práticas que afetam negativamente os resultados de pesquisa. Os melhores tipos de links são aqueles retornados com base na qualidade do seu conteúdo.
Para que o seu site seja bem classificado nas páginas de resultados de pesquisa, é importante verificar se o Google pode rastrear e indexar o seu site corretamente. As Diretrizes para webmasters destacam algumas das melhores práticas que podem ajudar você a evitar as armadilhas comuns e melhorar a classificação do seu site.
Os recursos do Google Pesquisas relacionadas, Sugestões de ortografia e Google Suggest foram desenvolvidos para ajudar os usuários a economizar tempo exibindo termos relacionados, erros de digitação comuns e consultas populares. Como os  resultados de pesquisa do google.com.br, as palavras-chave usadas por esses recursos são geradas automaticamente rastreadores da web e algoritmos de pesquisa. Exibem essas sugestões apenas quando acham que podem economizar o tempo do usuário. Se um site estiver bem classificado para uma palavra-chave, é porque o google determinal com base em algoritmos que seu conteúdo é mais relevante para a consulta do usuário.


Fonte:http://www.google.com/support/websearch/bin/answer.py?answer=106230

segunda-feira, 17 de janeiro de 2011

Otimização de mecanismos de pesquisa (SEO)

SEO

SEO é o acrônimo em inglês de "otimização do mecanismo de pesquisa" ou "otimizador do mecanismo de pesquisa". A contratação de um SEO é uma decisão importante que pode aperfeiçoar seu site e poupar tempo, mas você também corre o risco de prejudicar seu site e sua reputação. Pesquise as vantagens potenciais, bem como os danos que um SEO irresponsável pode causar ao seu site. Muitos SEOs e outros consultores e agências oferecem serviços úteis para proprietários de sites, incluindo:
  • Análise do conteúdo ou da estrutura do seu site
  • Consultoria técnica sobre desenvolvimento de sites: por exemplo, hospedagem, redirecionamentos, páginas de erro, uso do JavaScript
  • Desenvolvimento de conteúdo
  • Gerenciamento de campanhas de desenvolvimento de negócios on-line
  • Pesquisa de palavras-chave
  • Treinamento de SEO
  • Experiência em regiões e mercados específicos.
A página de resultados do Google inclui resultados de pesquisa orgânicos e, frequentemente, publicidade paga (indicada pelo título "Links patrocinados") também. Anunciar no Google não terá qualquer efeito na presença do seu site em nossos resultados de pesquisa. O Google nunca aceita dinheiro para incluir ou classificar sites nos resultados de pesquisa; não há custos para aparecer em nossos resultados de pesquisa orgânicos. Recursos gratuitos, como as Ferramentas do Google para webmasters, o blog oficial do Google para webmasters e nosso fórum de discussão, podem oferecer excelentes informações sobre como otimizar o seu site para pesquisa orgânica. Muitas dessas fontes gratuitas, além de informações sobre pesquisa paga, podem ser encontradas na Central do webmaster do Google.
Antes de iniciar sua pesquisa por um SEO, é recomendável tornar-se um consumidor informado e se familiarizar com o modo como os mecanismos de pesquisa funcionam. Recomendamos iniciar aqui:
Se você estiver pensando em contratar um SEO, quanto antes melhor. Um bom momento para a contratação é quando você estiver pensando em mudar o design do site ou planejando lançar um novo site. Dessa maneira, você e o seu SEO podem garantir que o seu site seja criado para ser conveniente para mecanismos de pesquisa do início ao fim. Porém, um bom SEO também pode ajudar a melhorar um site existente.
Algumas perguntas úteis a serem feitas a um SEO incluem
  • Você pode me mostrar exemplos de trabalhos anteriores e compartilhar algumas histórias de sucesso?
  • Você segue as Diretrizes do Google para webmasters?
  • Você oferece algum serviço ou orientação de marketing para complementar o seu negócio de pesquisa orgânico?
  • Que tipo de resultados você espera ver e em que período de tempo? Como você mede seu sucesso?
  • Qual é a sua experiência no meu setor?
  • Qual é a sua experiência no meu país ou em minha cidade?
  • Qual é a sua experiência no desenvolvimento de sites internacionais?
  • Quais são suas técnicas mais importantes de SEO?
  • Há quanto tempo você está no mercado?
  • Como me comunicarei com você? Você me informará sobre todas as alterações feitas no meu site e fornecerá informações detalhadas sobre suas recomendações e a lógica por trás delas?
Embora os SEOs possam oferecer serviços valiosos aos clientes, alguns SEOs com comportamentos antiéticos são vistos com maus olhos no setor por suas práticas de marketing exageradamente agressivas e suas tentativas de manipular de forma inadequada os resultados dos mecanismos de pesquisa. Práticas que violam nossas diretrizes podem resultar em um ajuste negativo da presença do seu site no Google ou até mesmo na remoção do site do nosso índice. Veja alguns aspectos a serem considerados:
  • Tenha cuidado com firmas de SEO e consultores ou agências na web que enviam e-mails inesperados. Pode parecer incrível, mas nós também recebemos este tipo de spam:
    "Prezado google.com.br,
    Visitamos o seu site e constatamos que você não aparece na maioria dos principais diretórios e mecanismos de pesquisa..."
    Se você receber e-mails não solicitados sobre mecanismos de pesquisa, mantenha o mesmo ceticismo que teria em relação a pílulas dietéticas que "queimam a gordura enquanto você dorme" ou solicitações para ajudar a transferir o dinheiro de ditadores depostos.
  • Ninguém pode garantir a classificação em primeiro lugar no Google. Cuidado com os SEOs que dizem garantir a sua classificação ou ter um "relacionamento privilegiado" com o Google ou que anunciam um "envio prioritário" para o Google. Não existe envio prioritário para o Google. Na verdade, a única forma de enviar um site diretamente ao Google é através da nossa página Adicionar URLou enviando um Sitemap, e você pode fazer isso por conta própria sem custo algum.
  • Tome cuidado se uma empresa tiver muitos segredos ou não explicar claramente o que pretende. Se algo não estiver claro, peça explicações. Se um SEO criar um conteúdo fraudulento ou enganoso em seu nome, como páginas de entrada ou domínios "descartáveis", o seu site poderá ser removido do índice do Google. Em última análise, você é responsável pelas ações das empresas que contratar. Por isso, é melhor verificar exatamente como pretendem "ajudar" você. Se um SEO possui acesso ao FTP do seu servidor, ele deve explicar todas as alterações que estão sendo feitas no seu site.
  • Você nunca deve precisar ter um link para um SEO.Evite SEOs que falam do poder dos links "gratuitos e para todos", de esquemas de popularidade de links ou que enviam o seu site para milhares de mecanismos de pesquisa. Normalmente, essas ações são inúteis e não afetam a sua classificação nos resultados dos principais mecanismos de pesquisa; ao menos, não de uma forma que você consideraria positiva.
  • Escolha com cuidado. Em caso de dúvida em relação a um determinado SEO, pesquise o mercado. Evidentemente, você pode fazer isso no Google. Você também pode consultar algumas informações que saíram na imprensa, inclusive este artigo em inglês sobre um SEO especialmente agressivo: http://seattletimes.nwsource.com/html/businesstechnology/2002002970_nwbizbriefs12.html. Embora o Google não comente sobre empresas específicas, encontramos firmas que se autodenominam SEOs, as quais adotam práticas que obviamente ultrapassam o comportamento comercialmente aceitável. Tome cuidado.
  • Tente entender para onde o dinheiro está indo.O Google nunca vende as melhores classificações nos seus resultados de pesquisa, mas existem vários mecanismos de pesquisa que combinam os resultados de pesquisa normais com resultados pagos por clique ou por inclusão. Alguns SEOs prometem que você ocupará as primeiras posições nos mecanismos de pesquisa, mas na verdade aparecerá na seção de anúncios, e não nos resultados de pesquisa. Alguns SEOs chegam até a alterar o valor dos lances em tempo real para criar a ilusão de que "controlam" outros mecanismos de pesquisa e que podem escolher onde querem aparecer. Esse golpe não funciona com o Google, pois os nossos anúncios são identificados de forma clara e ficam separados dos nossos resultados de pesquisa. Mas pergunte ao seu SEO em potencial quais taxas se destinam à inclusão permanente e quais se destinam a anúncios temporários.
  • Quais são os abusos mais comuns que o proprietário de um site pode encontrar?
  • Um golpe comum é a criação de domínios "de fachada", que encaminham os usuários para um site por meio de redirecionamentos fraudulentos. Os domínios de fachada normalmente pertencem a um SEO que alega estar trabalhando em nome de um cliente. No entanto, se o relacionamento não vingar, o SEO poderá apontar o domínio para outro site ou até mesmo para o domínio de um concorrente. Se isso acontecer, o cliente pagou para criar um site concorrente que pertence ao SEO. Outra prática ilícita é colocar páginas "de entrada" carregadas de palavras-chave em algum lugar do site do cliente. O SEO promete que isso tornará a página mais relevante para um maior número de consultas. Essa afirmação é inerentemente falsa, já que uma única página é raramente relevante para várias palavras-chave. Pior ainda é que essas páginas de entrada frequentemente contêm links ocultos que levam também a outros clientes do SEO. Tais páginas de entrada sugam a popularidade dos links do site e encaminham para o SEO e seus outros clientes, que podem ter sites com conteúdo ilegal ou ofensivo.
  • Que outras coisas eu devo verificar?
  • Alguns sinais de alerta podem indicar que você está lidando com um SEO desonesto. Esta não é uma lista completa, por isso, em caso de dúvida, siga o seu instinto. E, principalmente, não pense duas vezes em desistir se o seu SEO:
    • tiver domínios de fachada
    • colocar links para outros clientes nas páginas de entrada
    • oferecer a venda de palavras-chave na barra de endereços
    • não distinguir entre verdadeiros resultados de pesquisa e anúncios exibidos nos resultados de pesquisa
    • garantir a classificação, mas somente para frases de palavras-chave longas e obscuras, que você obteria de qualquer forma
    • utilizar diversos aliases ou informações WHOIS falsas
    • obtiver tráfego a partir de "falsos" mecanismos de pesquisa, spyware ou scumware
    • tiver tido domínios excluídos do índice do Google ou se ele mesmo não estiver listado no Google
    Se você achar que foi enganado por um SEO, convém denunciar o fato. Nos Estados Unidos, a FTC (Comissão Federal de Comércio) cuida das reclamações relacionadas a práticas comerciais enganosas ou ilegais. Para registrar uma reclamação, acesse: http://www.ftc.gov/ e clique em "File a Complaint Online" (Registrar uma reclamação on-line), ligue para 1-877-FTC-HELP ou escreva para:
    Federal Trade Commission CRC-240 Washington, D.C. 20580
    Se a sua reclamação for contra uma empresa em outro país, registre-a em http://www.econsumer.gov/. Fonte:http://www.google.com/support/webmasters/bin/answer.py?hl=pt-br&answer=35291

quinta-feira, 13 de janeiro de 2011

[SEO] o que é ?

seo


O significado de SEO é Search Engine Optimization. Em português ele é conhecido como Otimização de Sites, MOB e Otimização para Buscas. O SEO nada mais é do que a otimização de uma página (ou até do site inteiro) para ser melhor compreendido pelas ferramentas de busca. A conseqüência da utilização das técnicas de SEO é o melhor posicionamento de um site em uma página de resultados de uma busca. Por exemplo, ao pesquisar no Google por “Marketing de Busca”, o primeiro resultado é este site. O SEO é uma prática sem garantias, ou seja, nenhuma empresa ou pessoa pode garantir que seu site fique em primeiro em uma busca, pois o único capaz disto seria o próprio site de busca como o Google ou o Yahoo.

O SEO surgiu com a nova geração de sites de busca. Antes dela, a organização do links em uma páginas de resultado era alfabética como nos diretórios web. Na nova geração de ferramentas de busca, o posicionamento passou a depender da relevância. Esta relevância é definida por algoritmos, que são cálculos que servem para definir o quanto uma página é importante. Um dos mais conhecidos algoritmos de busca é o Google PageRank.

Os fatores que influenciam o posicionamento das páginas são guardado a sete chaves pelos site de busca. Porém, ao longo do tempo, foi possível identificar as melhores práticas que se resumem em empregar o bom senso na criação e estruturação de um site. O SEO também depende da palavra-chave que é o termo que você usa em um busca. Dependendo de quais palavras você utiliza, serão retornadas páginas diferentes em posições diferentes.

O SEO pode ser dividido em duas partes. Fatores internos e fatores externos. Os internos são relacionados ao site. Alguns exemplos são urls claras, utilização dos padrões web, títulos de página racionais e a correta utilização das tags html que é linguagem utilizada para construir páginas web. Já a parte externa analisa como os outros sites se relacionam com o site. Os exemplos são quantidade de links apontando para o site, quais sites apontam o site e o conteúdo do link apontado. Dependendo destes fatores, as páginas são pontuadas pelos sites de busca para que ele possa determinar a relevância da pagina e quais as palavras-chave relacionadas a ela. O Google utiliza um sistema de pontuação de 0 a 10 que é o PageRank.

xiste também o lado negro do SEO conhecido como Black Hat Seo. Nele, são utilizadas técnicas que tentam enganar os algoritmos das ferramentas de busca para melhorar o posicionamento da página como uso de texto invisível ou de exibir conteúdo diferente para pessoas e sites de busca. Quando descobertos, os sites de busca podem punir os sites que utilizam estas práticas diminuindo a importância do site ou chegando a excluí-lo da sua busca.

Não se deve confundir o SEO com links patrocinados, pois no segundo você pode pagar para ter a garantia de ficar na frente de outros resultados, podendo ficar até em primeiro se estiver disposto a pagar o preço.

link: http://www.marketingdebusca.com.br/seo/

sábado, 8 de janeiro de 2011

[SEO] Enviar convites para milhares de pessoas no Facebook


SEO  - Rede Sociais
Neste post vou dar uma dica como enviar convites para milhares de pessoas no Facebook
O próprio Facebook dispõe dessa ferramenta assim facilita um possível divulgação com seguinte

quarta-feira, 29 de dezembro de 2010

[SEO] Mini curso Black hat

Black Hat SEO/
Curso SEO

Uma simples pergunta: você está pedindo ao Google para ter seu site penalizado? Tenho certeza de que está pensando: "Bem, é óbvio que não!" Todos os dias, acompanhamos pessoas reclamando em fóruns sobre SEO a respeito de seus sites terem sido banidos pelo Google. Essas pessoas dizem não ter feito nada de errado assim como não possuem a mínima noção do motivo do Google ter agido dessa forma com seus sites. O propósito dessa aula é ensinar a você uma coisa muito importante:
O que NÃO fazer quando estiver otimizando os fatores onpage e offpage em seu site.

Como saber se seu site foi banido?

Primeiro, vamos mostrar a você se seu site foi realmente banido do Google. Muitas vezes, as pessoas acham que foram banidas, mas na verdade seus sites simplesmente despencaram no ranking e não são mais encontrados facilmente no resultado de uma busca. Essa perda de ranking pode ser gerada por uma punição dada pelo Google ou pela não manutenção de SEO em seu site. A otimização de sites para mecanismos de busca é um processo contínuo, não adianta fazer uma vez e parar daqui a dois meses. Para saber se seu site foi banido, acesse o Google e digite o prefixo site: seguido da URL completa do seu site na caixa de pesquisa. Por exemplo, digite site:http://www.exemplo-nome-dominio.com.br e clique em "Pesquisar". Procurando um domínio no Google
Figura 1: Procurando um domínio no Google
Perceba que o Google diz não ter informações a respeito desta URL. Isto significa que ela não está presente em suas bases de dados. Há duas explicações para esse fato ocorrer: ou é um site recém-criado e que ainda não foi indexado pelos robôs de busca (neste caso, essa mensagem aparecerá até o site ser indexado) ou é um site que foi banido pelo Google. Agora, já sabemos como identificar se nosso site foi banido ou não.

O que pode levar seu site a ser banido?

Existem diversos fatores de otimização onpage bem como fatores offpage que podem levar o Google a penalizar seu site com perda de posições no ranking ou até mesmo retirá-lo de seus índices. Iremos abordar nessa aula alguns desses fatores que podem ser causas dessas punições. Antes de começar, você deve ficar ciente de que existem muitos sites que estão impunes mesmo realizando estas práticas. Elas não ajudam no ranking do seu site e são uma completa perda de tempo. Nunca as utilize! Mais cedo ou mais tarde o Google irá encontrá-las e o seu site receberá uma punição. Não vale a pena correr o risco com coisas que não lhe ajudam muito a melhorar o posicionamento do seu site. O conjunto dessas técnicas maliciosas e não éticas é chamado de "Black Hat SEO" e, fazendo uma comparação direta, seria o mesmo que o Spam é para o E-mail Marketing. A seguir, vamos explicar com mais detalhes algumas dessas técnicas de Black Hat SEO. Textos Hidden Textos hidden (escondidos) são textos que os visitantes não conseguem ver ao entrar em um site. Alguns webmasters fazem isto com a intenção de adicionar palavras-chave no decorrer da página sem deixar tal conteúdo visível a quem visita o site, já que esteticamente ficaria feio. Porém, estes textos, mesmo estando escondidos dos visitantes, são lidos pelos robôs de busca. Por exemplo, vamos supor que seu site tenha um fundo branco. Caso você desejasse esconder algum tipo de texto, poderia simplesmente fazer a cor do seu texto ser igual à cor do fundo da sua página: branco. Dessa forma, os visitantes não perceberiam a existência do texto adicionado. Vamos a um exemplo real: http://www2.uol.com.br/guiamaua/hoteis/55.htm Este é o 1º site do resultado da pesquisa realizada no Google para as a seguintes palavras: "pousadas em visconde de maua". Site Black Hat no Google
Figura 2: Site Black Hat no Google
Visitando o site, não percebemos onde está o texto escondido. Site Black Hat
Figura 3: Site Black Hat - O texto está escondido
Porém, basta apertar as teclas "ctrl + a" do seu teclado para que a farsa apareça. Esse comando irá selecionar todo o texto da página e, até mesmo, textos hidden. Site Black Hat - texto hidden revelado
Figura 4: Site Black Hat - Texto hidden revelado
Esse texto hidden contém algumas das palavras-chave para as quais o site está bem posicionado no ranking do Google. Porém, este não é o principal motivo deste site possuir a 1ª colocação no ranking. Caso viessem a retirar esses textos escondidos, certamente continuariam com a mesma posição, além de acabar com a possibilidade de ser penalizado ou banido pelo Google. Alt Image Tag Stuffing Essa é uma outra maneira que as pessoas tentam usar para inserir palavras-chave em seus sites, visando a leitura dos robôs de busca, porém sem deixar que os visitantes percebam qualquer diferença. A seguir, temos um exemplo de um site que gostaria de possuir um bom ranking para os termos "cabbage soup diet". O que eles fizeram foi inserir uma figura de um repolho (cabbage, em inglês). Quando um visitante entra no site e passa o mouse sobre a figura, aparece um pequeno popup. Exemplo de Alt Image Tag Stuffing
Figura 5: Exemplo de Alt Image Tag Stuffing
Repare quantas vezes ele repetiu as palavras "cabbage soup" e "cabbage". Não há outra explicação para isto, a não ser querer inserir o maior número de palavras repetidas possíveis em sua página. O propósito real do atributo de uma tag de imagem é mostrar o texto presente neste atributo caso um usuário entre no site e a imagem não seja carregada. Este artifício é usado para auxiliar pessoas que possuem problemas de visão. Alt tag Spam é uma coisa da qual você deve manter distância. O uso do atributo em tags de imagem é aconselhável, sendo até recomendado, e um exemplo adequado de texto para o atributo neste caso seria: cabbage soup diet graphic. Meta Tag Stuffing Neste tópico falamos de pessoas que enchem de palavras-chave, e às vezes até palavras repetidas, as meta tags description e keywords. Por exemplo, o uso da tag abaixo se refere a um site que deseja obter um bom ranking para as palavras-chave "livro de anatomia": Isto é realmente ridículo. O Google não faz uso de meta tags para construir seu ranking de sites. Além disso, este site será penalizado. Fique longe dessa técnica também. Title Tag Stuffing Abaixo, temos um exemplo de Title Tag Stuffing: Exemplo de Title Tag Stuffing
Figura 6: Exemplo de Title Tag Stuffing
Não faça isto. Você não deve repetir palavras-chave no título de seu site. Deve-se incluir as palavras-chave escolhidas apenas uma vez. Qualquer quantidade a mais irá diminuir o peso atribuído a cada uma delas e, no caso de spam, como no exemplo acima, o site certamente será penalizado. Doorway Uma "doorway page" é uma página criada especificamente para conseguir um bom posicionamento nos mecanismos de busca. Porém, sua principal função é levar o visitante a outras páginas. Geralmente não possuem conteúdo algum destinado ao internauta, são extremamente otimizadas para determinadas palavras-chave e possuem links para outras páginas. Em alguns casos, há inclusive redirecionamento automático para outros sites através de JavaScript ou meta refresh. O Google e os demais mecanismos de busca condenam o uso desta técnica, já que o visitante não é levado para onde ele realmente clicou e desejava ir, ou seja, ele esta sendo enganado! Cloaking Só pra lembrar, os robôs de busca atualizam suas bases de dados e formulam seus rankings visitando cada site presente em seus índices, bem como cada link presente em cada site visitado e assim por diante. Cloaking consiste em apresentar um conteúdo para o robô de busca e outro completamente diferente para o visitante. A página apresentada ao robô não apresenta nenhum conteúdo útil. Ela é construída em função da leitura do crawler (robô de busca) a fim de se conseguir uma boa posição no ranking. Geralmente é inflacionada com palavras-chave e não possui uma leitura seqüencial lógica para um ser humano. Isso fere algumas das diretrizes do Google, que preza conteúdo de qualidade e feito para o visitante. Portanto, não utilize essa artimanha também. Essas são apenas algumas coisas que as pessoas continuam a fazer. São técnicas que eventualmente acabam em banimento e que não o ajudarão a se posicionar bem nas pesquisas. Realmente não vale a pena desperdiçar seu tempo em algo que não traz resultados e que pode ainda acarretar em prejuízos a seu site. Resumindo, fique sempre longe dessas técnicas chamadas de Black Hat SEO. Há muita gente trabalhando para que os crawlers não sejam enganados. Mais cedo ou mais tarde você será descoberto e seu site será penalizado. Definitivamente, não vale a pena!

Links "maus" podem prejudicar meu site?

Com relação à obtenção de links, não participe de link farms e mantenha distância de sites suspeitos ou que utilizem deliberadamente técnicas de Black Hat SEO. Se o Google detectar links de sites maliciosos apontando para a sua página, seu site pode ser penalizado. Porém, existem vários fatores que o Google utiliza para analisar a situação antes de efetuar uma punição desse tipo. Senão, imagina quantas pessoas iriam simplesmente adicionar sites concorrentes em link farms ou então inserir links em páginas maliciosas apontando para as páginas de seus concorrentes? Sem dúvida, haveria muitos casos de sabotagem. Para evitar que sites sejam punidos injustamente, o Google considera fatores como o tamanho e a idade do site, sua autoridade, verifica se os links provenientes de sites black hat e link farms são otimizados ou se são somente links aleatórios. Mesmo assim, seu site ainda pode ser punido injustamente por uma ação eficiente de sabotagem da concorrência. Caso isso ocorra, trate de identificar quais são os sites maliciosos que apontam para a sua página, acesse imediatamente as Ferramentas para Webmasters do Google e faça um pedido de reconsideração. Afirme que você não se interessa e nem apóia os links provenientes dos sites black hat identificados e peça para eles simplesmente desconsiderarem tais links, eliminando qualquer crédito ou descrédito que eles possam estar passando para a sua página. Assim, o Google deverá remover a punição. Outra maneira de ter seu site penalizado pelo Google é conter em suas páginas alguma referência (link) para sites "maus", como:
  • Links Farms
  • Sites penalizados pelo Google
Você deve estar achando que é fácil manter seu site fora desses casos, certo? Errado! Tome este caso como exemplo: suponha que nós temos um site e trocamos links com o seu site. Até o presente momento, tudo certo. Somos dois sites de boa qualidade, com conteúdos relacionados e com Page Rank 4. É uma troca de links perfeita. Passados alguns meses, começamos a fazer uso de algumas técnicas de Black Hat SEO. Percorrido mais algum tempo, o Google descobre nossas técnicas maliciosas e decide banir nosso site. Portanto, não estamos mais presentes nos índices de sites do Google e, consequentemente, nos resultados de suas pesquisas. Até agora, nenhum problema com relação ao seu site, certo? Errado! Veja só, você ainda continua apontando para nosso site, o qual agora, é considerado "mau" por utilizar técnicas não éticas para enganar os algoritmos do Google. E, por causa disso, seu site também será severamente penalizado. E isso tudo mesmo sem você ter mudado uma linha de código do seu site! Para e pense nisso por alguns instantes... Seu site pode perder centenas de posições no ranking sem mesmo você saber o motivo! Portanto, é muito importante manter o controle dos links presentes no seu site. De tempos em tempos, sempre verifique os sites para os quais está apontando para saber se eles foram de alguma forma penalizados pelo Google ou até mesmo banidos. 
Fonte: www.seomaster.com.br/

terça-feira, 28 de dezembro de 2010

[Hacking] Busca de Arquivos TXT em serves do governo com Motor de busca Google


Busca de Arquivos TXT em serves do governo com Motor de busca Google
Vamos brincar um pouco de detetive, com a simples string abaixo teremos acesso  a uma grande quantidade de informações de sites governamentais como lista de email,Nome completo, Cargo, telefone e algums assuntos.
String: site:.gov.br +mail ext:txt
EX01: site:.gov.br = O google só pesquisa em domínios do governo Brasileiro.
EX02:+mail = Força o buscado a incluir o nome mail em sua pesquisa.EX03:ext:txt = O google efetua sua pesquisa só em arquivos de final .txt .

OBS: Alternância de linguagem ou de formado de arquivo melhora sua busca.
Exemplo de achado.



De fato o acesso á este diretório esta bloqueiado mais com um simples



O acesso é liberado  link: http://webcache.googleusercontent.com/search?q=cache%3Aportal.mec.gov.br%2Fseesp%2Farquivos%2Ftxt%2F&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:pt-BR;%20googleinurl:official&client=firefox-a

Para curiosos é um ótimo passa tempo!
Conteúdo para estudos.

segunda-feira, 27 de dezembro de 2010

[SEO] Search Labs – O Maior Evento de SEO do Brasil

O Search Labs promete ser o maior evento de SEO já realizado aqui no Brasil. Ele conta com a presença de grandes nomes do mercado nacional e internacional na área.
O evento será realizado no dia 28/29 de julho de 2010 no hotel Renaissance em São Paulo. Serão 3 salas simultâneas e quase 40 sessões durante os 2 dias de evento.
Search Labs - Maior Evento de SEO no Brasil
Teremos a presença de Vanessa Fox, a idealizadora do Google Webmaster Central, e atualmente trabalhando na Nine by Blue, uma das pessoas mais influentes no mercado internacional de Search, e que constantemente colabora com a comunidade postando excelentes e detalhados artigos sobre acontecimentos novos na área. Tive a oportunidade de assistir palestras dela fora do Brasil, e realmente foi muito interessante os pontos de vista por ela abordado.
Teremos Todd Malicoat, que na minha humilde opinião é um dos caras com maior conhecimento de SEO que já ouvi falar. Já presenciei duas palestras dele fora do Brasil, e o cara arrebentou, talvez as melhores apresentações de SEO que já assisti. É bom ficar atento sem piscar para poder tomar nota das dicas que o cara mostra. É a palestra que mais quero assistir no evento.
Teremos Pedro Dias e Ariel, os caras responsáveis pela qualidade da busca do Google aqui no Brasil combatendo os temíveis vilões black haters. Aposto que ambas palestras serão muito interessantes e ajudarão a toda a comunidade a seguir o caminho correto para ter resultados positivos no Google. Fora a oportunidade de bater um papo com eles, realmente um grande ponto positivo para o evento.
Teremos também outros excelentes nomes do mercado internacional como Greg Sterling, Sara Holoubek, Melanie Mitchell, Gillian Muessig (A SEOMOM, mãe do Rand Fishkin e presidente do SEOMoz) entre vários outros, e do mercado nacional teremos outras grandes apresentações de Fábio Ricotta, Flávio Raimundo, Tiago Doc Luz, Guanabara, Guga Alves, Alexandre Kavinski, Leonardo Naressi, Willie Taminato, Ruy Carneiro, Alex Pelati, Paulo Rodrigo Teixeira, entre outros diversos nomes importantes do mercado.
Eu estarei por lá também falando de Link Building, e estou organizando uma apresentação para deixar todo mundo satisfeito, tomem nota, vou dar dicas interessantes por lá. ;)
É um evento obrigatório para todos da área de Search, seguindo moldes de grandes eventos internacionais como Pubcon e realmente é um prato cheio de informação.
Não deixe de comparecer ao evento, e aproveite para o networking e oportunidades conversando com os palestrantes e participantes do Search Labs.
Para ter 20% de desconto utilize o seguinte código promocional na compra do ingresso:
sl2010brasilseo
Fonte:http://www.brasilseo.com.br/  - Site muito bom recomendo

[SEO] Os 5 Maiores Mal-Entendidos em SEO


 Por ser um novo mercado, a área de SEO tem chamado a atenção de muitas pessoas que ao fazerem alguma pesquisa acabam descobrindo o seu significado e objetivo, mas muito pouco de seu funcionamento. O que normalmente acaba levando-as ao caminho oposto do verdadeiro SEO, criando verdadeiros mal-entendidos sobre o que é SEO e como ele funciona.
Os mal-entendidos mais comuns são:
  1. SEO só é feito uma vez
    Normalmente, empresas não entendem que otimizar um site é apenas o começo. Mesmo depois do site ter seu design refeito, seu novo conteúdo implementado e a campanha de pay-per-click começarem, um site precisa de trabalho contínuo, conteúdo e monitoração, tanto pelo dono do site ou por uma empresa especializada em SEO.
  2. Black Hat realmente funciona
    A razão deste mito é devido ao fato de empresas que utilizam técnicas black hat SEO continuarem a espalhar isso por aí! Essas táticas podem funcionar bem a curto prazo, porém os algoritmos das máquinas de busca estão cada vez melhores e eles irão detectar o site com black hat. E o grande perigo disso é sites bem posicionados acabarem sendo banidos das máquinas de busca devido a uma empresa que se utiliza dessas técnicas para mostrar resultados a curto prazo sem se preocupar com o futuro ou o site de seu cliente.
  3. Se 5 keywords é bom, 500 é melhor ainda
    Muitas pessoas escutam muito bem quando uma empresa de SEO explica como otimizar o conteúdo de site escolhendo muito bem um conjunto de palavras-chave e frases. Infelizmente, após terem entendido a idéia, acham que não precisam mais da empresa e utilizam estas palavras indefinidamente e infinitamente, o que faz seus leitores correrem de seu site o mais rápido possível. Máquinas de busca realmente atraem pessoas para seu site, mas quando essas pessoas chegam ao site e vêm um conteúdo cheio de spam e sem sentido, elas deixam o site e este perde muitos clientes em potencial. E logo as máquinas de busca irão detectar essa grande quantidade de spam, e não será nada agradável.
  4. Empresas têm acordos com máquinas de busca
    Isto é muito comum de empresas que enganam o cliente ao oferecerem serviços de SEO. Ninguém pode garantir um lugar entre os 10 primeiros sites de uma máquina de busca da noite pro dia, isto requer um enorme trabalho e tempo. Empresas que dizem ter acordos com o Google ou outras máquinas de busca e afirmam conseguir um posicionamento muito alto para seu site estão mentindo. E estás pessoas criam um grande dano para a área de SEO espalhando esse tipo de desinformação.
  5. Uma única tática leva ao alto posicionamento
    Não existe solução única para SEO. Links não são a única resposta, keywords não são resposta,
    links patrocinados não é a resposta e nem outra tática quando usada sozinha. A resposta é usar todas em conjunto para ajudar o site a ser bem posicionado e criar sua marca.
    Font:http://www.brasilseo.com.br/

[SEO] O que é um White Hat SEO

 
O que é um White Hat SEO. Existem diversas técnicas SEO. Acontece que algumas técnicas, apesar de melhorar o posicionamento da sua página, são consideradas desonestas pelos sites de busca e passíveis de punição. O conjunto dessas técnicas é conhecido como Black Hat SEO.
De outro lado, quem pratica o SEO honesto é considerado White Hat SEO. Essa idéia de “chapéu branco” e “chapéu preto” vêm da terminologia hacker. Nela o hacker do bem usa seus dotes de forma ética para ajudar as pessoas. Ele é chamado de chapéu branco. Já o hacker do mal, que usa seu conhecimento para destruir e prejudicar, tem sua cor de chapéu preta.

Grey Hat SEO

Poderia ser simples assim, mas não é. Como o mundo não é preto e branco, existe toda uma infinidade de técnicas que estão na parte intermédia, pois não são consideradas desonestas pelos sites de busca, mas também não tem uma unanimidade ética nela. Essas técnicas são chamadas de Grey Hat SEO. Detalhe que ele também é descrito com a grafia com a como em Gray Hat SEO. Alguns exemplos que podem figurar o Grey Hat SEO são copiar textos de concorrentes para prejudicá-los ou comprar domínios expirados com PageRank alto. O acontece é que um Grey Hat pode variar ao longo do tempo e se transformar em um Black Hat como, por exemplo, a troca e venda de links.
Com isto acho que já dá para entender que existem diferentes linhas profissionais na área de SEO. Eu, por exemplo, acredito na linha puramente White Hat SEO. A principal justificativa para isto é que não importa quantas modificações os sites de busca façam em seus algoritmos, você terá sempre um site racional e ético. Com isto você não corre o risco de ver seu site despencar sensivelmente ou ser punido. Agora entenda que não estou criticando quem pratica ou já praticou uma técnica Grey Hat ou Black Hat, afinal você poderia não saber disto. Também tem a parte de que SEO é testar, testar e testar. O que não recomendo é utilizar qualquer uma dessas duas práticas relacionada ao seu domínio. Como já falei, registrar um domínio custa no máximo R$ 30,00 reais.

Sou Grey Hat SEO? Tem solução?

Agora você pode estar se perguntando: como sei que o que estou fazendo não é um Grey Hat SEO? Para exemplificar, uma aluna minha me disse que usava uma imagem de 1×1 pixel com as palavras-chave que queria ficar bem posicionada na alt tag. Perguntei a ela se aquilo iria ajudar de alguma forma um usuário que visitasse o site. Claro que ela e todos responderam que não, então sempre que for produzir para o seu site faça para o usuário e não para o robô de busca. Faça sites para pessoas.
Se você chegou até aqui e ficou um pouco preocupado, não entre em pânico. A boa notícia é que se você descobriu que está fazendo Grey Hat SEO, você tem chance de mudar a cor do seu chapéu. Basta abandonar aquela técnica de resultado duvidoso e levar em conta que o Google é gente fina e não guarda tanta mágoa. Imagine ser pego de surpresa despencando no PageRank, como muita gente foi pega na última atualização, por vender links? Meu chapéu é branco!
Fonte: http://www.marketingdebusca.com.br/tag/black-seo/

quinta-feira, 23 de dezembro de 2010

[Google] SEO e SQL injection: é importante se proteger


 SEO e SQL injection: é importante se proteger
Defacer's tem aproveitado vulnerabilidades para inserir códigos em páginas de sites. Estes códigos tem diversas funções. Uma é a de esconder links nas suas páginas para passar o PageRank da vítima para páginas escolhidas pelo invasor. Outra é inserir código para abrir publicidade pop-up na suas páginas ou para usar sua página para atacar seus visitantes. Isto pode ser entendido como Black Hat SEO e causar punição para o seu site sem você nem ter culpa.
Umas das técnicas para explorar estas vunerabilidades é o SQL Injection e seu uso tem aumentado recentemente. Ele se aproveita da programação utilizada para consultar suas tabelas do banco de dados para roubar informação ou inserir código malicioso. Isto quer dizer que qualquer site que monta suas páginas com base no conteúdo de um banco de dados, como gerenciadores de conteúdo, corre o risco deste ataque.

Exemplo de página infectada com alerta “Este site pode danificar seu computador”:Tela do Google com alerta
Uma maneira de encontrar alguns exemplos deste grande ataque é procurar no Google por “b.js“, ou por intext:b.js um dos domínios usados no ataque como www.chinabnr.com, www.adwbnr.com ou www.pingadw.com. Se você foi vítima de um ataque deste, visite o link para saber sobre este SQL Injection da China.
Este código pode estar oculto no seu site e talvez seja difícil para o dono do site descobrir que sofreu um ataque. Para isto você tem duas alternativas: vasculhar o código de todas as página do site ou torcer para o Google descobrir e te enviar uma mensagem de alerta. Esta mensagem pode estar no Google Webmaster Tools na área de mensagens ou pode vir por e-mail se você tiver uma conta com nome de usuário como abuse, admin, administrator, contact, info ou webmaster. Um exemplo seria ter um e-mail como “contact(arroba)seusite.com.br”.
A mensagem que você receberá terá instruções sobre qual é a URL problemática e a possível causa do problema. Resolva completamente o problema e então informe ao Google. A tendência é que esti tipo de ataque seja mais comum, principalmente pelo potencial de conseguir links para aumentar PageRank, por isto atenção redobrada e divulgue sobre os riscos de invasão.
Fonte marketingdebusca.com.br :  goo.gl/pJcKI

segunda-feira, 20 de dezembro de 2010

[Google] Hell (índice suplementar)


COMO O GOOGLE VARRE A INTERNET ?

O Google "passeia" pela internet através de um "robozinho" chamado Googlebot. Explicando de uma forma simplificada, esse robozinho é um software que lê as páginas da internet, armazena o seu conteúdo e segue os links contidos nestas páginas repetindo continuamente este processo. Algumas páginas de sites de notícias ou blogs diários são "visitados" pelo Googlebot várias vezes ao dia, enquanto outras podem ficar meses sem receber a visita do robozinho. Praticamente toda esta informação varrida pelo Googlebot é armazenada em seus servidores. Logo, quando se realiza um busca no Google, este utiliza-se destas informações armazenadas, e não do conteúdo da internet naquele exato momento, para calcular que páginas aparecem nos primeiros resultados de busca.

ÍNDICES DO GOOGLE

Com o aumento do número de páginas da internet, e com o objetivo de priorizar sites que tivessem mais importância, o Google passou em 2003 a dividir o seu índice em dois - o principal e o suplementar. Com isso, poderia dar mais atenção às páginas de maior importância e de atualização mais constante. Por outro lado, páginas que não tivessem uma atualização freqüente, que contivessem spam, conteúdo duplicado ou não recebessem links importantes passavam para o índice suplementar. Isso significava que o Google visitaria essas páginas com menos freqüencia e que provavelmente estas teriam um posicionamento pior na tela de resultados dos mecanismos de busca (SERP). Ter um número significativo de páginas no índice suplementar do Google significava para muitos sites uma queda significativa de visitantes e de receita. Daí o nome de GOOGLE HELL para o índice suplementar, que traduzido para o português seria O INFERNO DO GOOGLE.

GOOGLE HELL

As páginas do índice suplementar do Google eram facilmente identificadas por terem a indicação de ÍNDICE SUPLEMENTAR na sua tela de resultados. Temido por webmasters do mundo todo, o inferno do Google estava mais para purgatório do que necessariamente inferno, já que era difícil mas não impossível de sair dele. Era comum que sites novos tivessem suas páginas no índice suplementar antes do Google conceder a estas o devido crédito. Com um trabalho eficiente de White Hat SEO e paciência, porém, era possível voltar as páginas ao seu índice principal. Relatos infamados de webmastrers inconformados espalhavam-se pela internet. Por seu lado, o Google defendia-se dizendo que o índice suplementar não era o fim do mundo, sites poderiam ser bem rankeados mesmo estando no GoogleHell e que muitas vezes páginas iam parar no índice suplementar por não seguir suas diretrizes.

O FIM DO GOOGLE HELL?

Em 31 de Julho de 2007, o Google anunciou que deixaria de colocar a denominação ÍNDICE SUPLEMENTAR nas páginas que fizessem parte deste índice, por mais que este continue existindo. O argumento utilizado é o de que as constantes evoluções de seus algoritmos permitem que o índice suplementar seja visitado mais vezes pelo Googlebot, e com isso páginas deste índice aparecerão mais vezes nos resultados de busca. O "Google Hell" continua então existindo, mas agora não é identificado. Com isso, ao menos, gera-se menos polêmica.

Fonte:Seomarketing.com.br  /Muito bom o site recomento.

sexta-feira, 17 de dezembro de 2010

[Google] O que é SEO


Otimização de Site
Sites de busca, também chamados mecanismos de busca, hoje são um dos principais causadores de sucessos para determinadas empresas, muitas vezes aparecer em uma posição favorável no Google ou em outros motores de busca determina o futuro de sua empresa, pois clientes em potencial pesquisam constantemente em sites de busca por seus prováveis fornecedores.
SEO, ou seja, Otimização de Sites para Buscadores.
Essa meio de marketing é uma grande vertente no ramo de alavancar o numero de vendas de uma empresa ou até mesmo de sua credibilidade.
Quem trabalhada com o SEO?
As empresas hoje têm consciência que SEO tem grande participação em seu sucesso por esse motivo repassam essas diretrizes para sua área de tecnologia, assim o certo de TI
agi diretamente com intuito de melhorar a posição de seu site no SERP - Search Engine Results Pages. Com palavras chaves & conteúdo único é variado sem falar o responsável pelo Web designer tem uma missão de alimentar o Google com informações variadas por isso a contribuição de todas os setores da empresa faz um grande diferencial no conteúdo scanneado pelo Googlebot.
Agências especializadas, SEMs. Muitas companhias não possuem profissionais qualificados ou recursos para tocar programas bem sucedidos de SEO. Os algoritmos de mecanismos de busca estão em constante evolução, e as empresas possuem outras prioridades que precisam ser atendidas, tornando difícil manter-se a par de todas as novidades no mundo SEO. Surgiram então agências especializadas em SEO que oferecem serviços de terceirização de SEO. Estas agências desenvolvem toda a estratégia de SEO ou tornam-se consultores de empresas que desejem adquirir o conhecimento necessário para desenvolver a sua estratégia de SEO in-house.

terça-feira, 7 de setembro de 2010

O que é Google Hacking


O que é Google Hacking?
Significado da palavra Google:  O nome Google foi escolhido devido a expressão googol, que representa o número 1 seguido de 100 zeros, para demonstrar assim a imensidão da Web.
A expressão googol surgiu de um fato um tanto curioso. O matemático Edward Kasner questionou o seu sobrinho de 8 anos sobre a forma como ele descreveria um número grande - um número realmente grande: o maior número que ele imaginasse. O pequeno Milton Sirotta emitiu um som de resposta que Kasner traduziu por "googol". Mais tarde, Kasner definiu um número ainda maior: o googolplex.
Googolplex: é o nome do conjunto de construções de trabalho e moradia do Google, em Mountain View (Googleplex) - Califórnia. Este termo também vem da matemática e é algo como 10^{10^{100}}, que seria 10 elevado a (10 elevado a 100) ou 10 elevado a googol.
Googolduplex: como quando alguém se refere a um dos complexos de moradia do Google; Este termo, voltando à matemática, se refere a 10^{10^{10^{100}}}, ou 10 elevado a (10 elevado a (10 elevado 100)), ou mesmo 10 elevado a googolplex.

O que significa a palavra Hacking?
Significado da palavra Hacking: No uso comum, um hacker é uma pessoa que invade computadores, geralmente através do acesso a controles administrativos. A subcultura que tem evoluído em torno de hackers é muitas vezes referida como o computador no subsolo. ...
en.wikipedia.org / wiki / Hacking_ (computadores).
Também é atribuída a pessoas que exploram códigos de softwares, atrás de uma elegância e eficiência em um determinado programa contornando problemas com técnicas impensáveis,
Hacking é utilizar métodos diferenciados para atingir seus objetivos ou contornalos de fora inteligente.
Google Hacking exatamente é o uso inteligente das ferramentas de busca é  seus operados, assim  atingindo seu objetivo mais rápido possível restringindo sua busca em determinado alvo.
Ex:  Digamos que você  busca musicas de mp3 do linkin park mais so encontra links quebrados, com haking seo tempo não é gasto em sites inúteis, na pesquisa detalhada assim á chamo você atinge seu objetivo com eficácia observe logo abaixo.
"index of" +mp3 +linkin park resultado = http://www.google.com.br/#hl=pt-BR&source=hp&q=%22index+of%22+%2Bmp3+%2Blinkin+park&aq=f&aqi=&aql=&oq=&gs_rfai=&fp=de83a197345c8b04
“índex of” = força o Google a busca sites que tem diretórios expostos na web, ou seja pastas sem o conteúdo principal a índex.
+mp3 = força o Google a pesquisa a palavra mp3 nos diretórios vulneráveis, 
+linkin park= força o Google a pesquisa a palavra linkin park, assim com junção da palavra mp3
na pesquisa o retorno é satisfatório se sua intenção de busca é mp3 do linkin park.
O motor de busca do Google utiliza operadores  aritméticos como ( +, -, ) da mesma forma que você utiliza o sinal de mais (+) para força o Google a incluir um determinado nome em suas buscas, poderá fazer o revéis  com operador (-) .

By:Cleiton   Pinheiro