-
Witaj w CS 101. Jestem Dave Evans. Będę Twoim przewodnikiem w tej podróży
-
Ten kurs wprowadza podstawowe koncepcje związane z przetwarzaniem komputerowym
-
i nauczy Cię czytać i pisać własne programy.
-
Zrobimy to wszystko w kontekście budowania wyszukiwarki internetowej
-
Przypuszczam, że wszyscy wcześniej używali wyszukiwarki.
-
Celem pierwszych trzech rozdziałów jest zbudowania "szperacza sieciowego"
-
Będzie zbierało dane z sieci dla naszej wyszukiwarki.
-
I nauczy o koncepcjach w przetwarzaniu komputerowym.
-
W rozdziale 1, zaczniemy od wydobycia pierwszego linku na stronie internetowej.
-
"Szperacz sieciowy" znajdzie strony dla naszej wyszukiwarki
-
zaczynając od "źródłowej" strony i śledząc linki na tej stronie w celu znalezienia innych stron.
-
Każda z tych stron prowadzi do nowej strony, która może zawierać linki prowadzące do innych.
-
Gdy będziemy podążali za tymi linkami, znajdziemy coraz więcej stron internetowych
-
budujących zbiór danych, które wykorzystamy w naszej wyszukiwarce.
-
Strona internetowa jest tak naprawdę kawałkiem tekstu który przychodzi z internetu do Twojej przeglądarki.
-
Powiemy więcej na temat tego jak to działa w rozdziale 4.
-
A teraz, ważną rzeczą do zrozumienia jest to
-
że link jest tak naprawdę specjalnym tekstem na stronie
-
Gdy klikasz w link w przeglądarce, przekieruje Cie do nowe strony.
-
A Ty możesz podążać za tymi linkami.
-
W tym rozdziale napiszemy program do wydobycia pierwszego linku ze strony internetowej
-
W późniejszych rozdziałach wymyślimy jak wydobyć wszystkie linki i jak zbudować ich zbiór dla naszej wyszukiwarki