Witaj w CS 101. Jestem Dave Evans. Będę Twoim przewodnikiem w tej podróży Ten kurs wprowadza podstawowe koncepcje związane z przetwarzaniem komputerowym i nauczy Cię czytać i pisać własne programy. Zrobimy to wszystko w kontekście budowania wyszukiwarki internetowej Przypuszczam, że wszyscy wcześniej używali wyszukiwarki. Celem pierwszych trzech rozdziałów jest zbudowania "szperacza sieciowego" Będzie zbierało dane z sieci dla naszej wyszukiwarki. I nauczy o koncepcjach w przetwarzaniu komputerowym. W rozdziale 1, zaczniemy od wydobycia pierwszego linku na stronie internetowej. "Szperacz sieciowy" znajdzie strony dla naszej wyszukiwarki zaczynając od "źródłowej" strony i śledząc linki na tej stronie w celu znalezienia innych stron. Każda z tych stron prowadzi do nowej strony, która może zawierać linki prowadzące do innych. Gdy będziemy podążali za tymi linkami, znajdziemy coraz więcej stron internetowych budujących zbiór danych, które wykorzystamy w naszej wyszukiwarce. Strona internetowa jest tak naprawdę kawałkiem tekstu który przychodzi z internetu do Twojej przeglądarki. Powiemy więcej na temat tego jak to działa w rozdziale 4. A teraz, ważną rzeczą do zrozumienia jest to że link jest tak naprawdę specjalnym tekstem na stronie Gdy klikasz w link w przeglądarce, przekieruje Cie do nowe strony. A Ty możesz podążać za tymi linkami. W tym rozdziale napiszemy program do wydobycia pierwszego linku ze strony internetowej W późniejszych rozdziałach wymyślimy jak wydobyć wszystkie linki i jak zbudować ich zbiór dla naszej wyszukiwarki