Agora, essa questão pode ser facilmente respondida em 5000 palavras. Livros foram escritos sobre este assunto. Mas o ponto é que quer saber em profundidade? Tudo o que importa é alguns fatos interessantes para impressionar seus amigos. Há uma bela flash que descreve o processo de trabalho do Google. [Para ver clique aqui] O flash dá um verão de todo o livro em 2 minutos entity.Really audiovisual interessante ver. Se você não estiver interessado em aprender como Google cria o índice eo banco de dados de documentos que ele acessa ao processar uma consulta, pule esta descrição.
Google é executado em uma rede distribuída de milhares de computadores de baixo custo e pode, portanto, realizar o processamento paralelo rápido. O processamento paralelo é um método de cálculo em que muitos cálculos podem ser realizados simultaneamente, acelerando significativamente o processamento de dados. Google tem três partes distintas: 1. Googlebot, um web crawler que localiza e recupera páginas web. 2. O indexador que classifica cada palavra em cada página e armazena o índice resultante de palavras em um banco de dados enorme. 3.
O processador de consultas, que compara a sua consulta de pesquisa para o índice e recomenda os documentos que considera mais relevante. Vamos dar uma olhada em cada parte. 1. Googlebot, Web Crawler do Google Googlebot é robô rasteja web do Google, que localiza e recupera páginas na web e entrega-los para o indexador do Google. É fácil imaginar como Googlebot uma pequena aranha correndo através dos fios de ciberespaço, mas, na realidade Googlebot não atravessa a web em tudo.
Ele funciona muito parecido com o seu navegador web, através do envio de uma solicitação para um servidor da Web para uma página web, download de toda a página, em seguida, entregá-lo ao indexador do Google. Googlebot é composto de muitos computadores solicitando e buscar páginas muito mais rapidamente do que você pode com o seu navegador web. Na verdade, o Googlebot pode solicitar milhares de páginas diferentes, simultaneamente.
Para evitar sobrecarregar servidores web, ou crowding out solicitações de usuários humanos, Googlebot deliberadamente faz solicitações de cada servidor web indivíduo mais lentamente do que ele é capaz de fazer. Googlebot descobre páginas de duas maneiras: por meio de um formulário de adição URL, www.google.com/addurl.html, e através de encontrar ligações de rastreamento da web. Infelizmente, os spammers descobriram como criar robôs automatizados que