Witaj w CS 101. Jestem Dave Evans. Będę Twoim przewodnikiem w tej podróży
Ten kurs wprowadza podstawowe koncepcje związane z przetwarzaniem komputerowym
i nauczy Cię czytać i pisać własne programy.
Zrobimy to wszystko w kontekście budowania wyszukiwarki internetowej
Przypuszczam, że wszyscy wcześniej używali wyszukiwarki.
Celem pierwszych trzech rozdziałów jest zbudowania "szperacza sieciowego"
Będzie zbierało dane z sieci dla naszej wyszukiwarki.
I nauczy o koncepcjach w przetwarzaniu komputerowym.
W rozdziale 1, zaczniemy od wydobycia pierwszego linku na stronie internetowej.
"Szperacz sieciowy" znajdzie strony dla naszej wyszukiwarki
zaczynając od "źródłowej" strony i śledząc linki na tej stronie w celu znalezienia innych stron.
Każda z tych stron prowadzi do nowej strony, która może zawierać linki prowadzące do innych.
Gdy będziemy podążali za tymi linkami, znajdziemy coraz więcej stron internetowych
budujących zbiór danych, które wykorzystamy w naszej wyszukiwarce.
Strona internetowa jest tak naprawdę kawałkiem tekstu który przychodzi z internetu do Twojej przeglądarki.
Powiemy więcej na temat tego jak to działa w rozdziale 4.
A teraz, ważną rzeczą do zrozumienia jest to
że link jest tak naprawdę specjalnym tekstem na stronie
Gdy klikasz w link w przeglądarce, przekieruje Cie do nowe strony.
A Ty możesz podążać za tymi linkami.
W tym rozdziale napiszemy program do wydobycia pierwszego linku ze strony internetowej
W późniejszych rozdziałach wymyślimy jak wydobyć wszystkie linki i jak zbudować ich zbiór dla naszej wyszukiwarki