Bem-vindo ao CS 101. Eu sou Dave Evans. Eu guiarei vocês nesta jornada. Este curso introduzirá vocês para as idéias fundamentais em computação e ensinará ler e escrever seus próprios progragamas de computador. Nós vamos fazer tudo no contexto de construir uma (search engine) ferramenta de pesquisa na Web. Eu estou supondo que todos aqui tenham usado uma ferramenta de pesquisa. O objetivo das primeiras três unidades desse curso é construir um (Web crawler) rastreador Web. Eles colecionarão dados da Web para sua ferramenta de pesquisa. E aprender sobre as grandes idéias da computação fazendo isso. Na Unidade 1, nós iniciaremos extraindo o primeiro link em uma página web. Um rastreador Web (Web crawler) procura páginas web para sua ferramenta de pesquisa iniciando de uma página "semeada" e seguindo links naquela página para encontrar outras páginas. Cada um desses links leva a alguma nova página web, a qual pode ter links que levam a outras páginas. Como nós seguimos esses links, nós encontraremos mais e mais páginas Web construindo uma coleção de dados que usaremos para nossa ferramenta de pesquisa. Uma página web é realmente só um pedado de texto que vem da Internete para o seu navegador Web. Nós falaremos mais sobre como isso funciona na Unidade 4. Mas, por agora, a coisa importante a compreender é que um link é somente um pedaço especial do texto na página Web. Quando você clica em um link no seu navegador, ele o direcioina para uma nova página. E você pode permanecer seguindo esses links (...) O que nós faremos nessa Unidade é escrever um programa para extrair aquele primeiro link da página Web. Nas próximas unidades, nós vamos descobrir como extrair todos os link e construir a coleção para nossa ferramenta de busca.