Ang dami ng impormasyong nakaimbak sa Internet ay napakalaking. Imposibleng makahanap ng anumang manu-mano sa data na ito. Ang mga search engine ay tinawag upang i-automate ang proseso. Ang mga ito ay mga system ng computing na nagsasaayos ng data at paghahanap sa pamamagitan ng mga query.
Panuto
Hakbang 1
Ang mga search engine server ay patuloy na nagpapatakbo ng mga programa na tinatawag na bot. Ang bot ay maikli para sa robot. Sa kanilang pag-uugali, kahawig talaga nila ang mga robot. Sa pamamagitan ng pana-panahong pagbisita sa bawat site mula sa listahan na nakaimbak sa server, nagdadala sila ng mga lokal na kopya ng lahat ng mga teksto na naaayon sa kasalukuyang mga bersyon ng parehong mga teksto sa mga web page. Sinusundan ng mga bot ang lahat ng mga link na nakasalamuha nila, at kung nakakita sila ng bagong nilikha na pahina, idinagdag nila ito sa listahan at lumikha din ng isang lokal na kopya. Ang mga kopya ay hindi nai-post sa Internet - mahalagang bahagi lamang ito ng proseso ng pagkuha ng isang listahan ng mga site. Nangangahulugan ito na ang paglabag sa copyright ay hindi nangyari.
Hakbang 2
Subukang ipasok ang parehong parirala nang maraming beses sa parehong search engine. Malalaman mo na ang mga resulta ay pumipila sa parehong pagkakasunud-sunod sa bawat oras. Ito ay bihirang magbago, hindi mas madalas kaysa sa isang beses sa isang araw. Ang dahilan para dito ay simple - ang pagkakasunud-sunod ng mga resulta ng paghahanap ay natutukoy ng isang medyo kumplikadong algorithm. Isinasaalang-alang ng pagkalkula ang dalas ng paggamit ng ilang mga salita sa mga pahina, ang bilang ng mga link sa pahinang ito na matatagpuan sa iba pang mga site, pati na rin ang bilang ng iba pang mga kadahilanan.
Hakbang 3
Ang mga may-ari ng website, na nagsusumikap na dalhin ang kanilang mga mapagkukunan sa tuktok ng listahang ito, ay na-optimize ang mga teksto na nai-post sa kanila. Ang pag-optimize na ito ay maaaring "puti" - direktang pinahihintulutan ng mga patakaran ng "mga search engine", "grey" - hindi pinapayagan, ngunit hindi ipinagbabawal, pati na rin ang "itim" - direktang ipinagbabawal. Sa huling kaso, ang site ay maaaring madaling mawala sa listahan magpakailanman. Ang mga algorithm sa pag-optimize ay madalas na mas kumplikado kaysa sa mga resulta ng paghahanap na pag-uuri ng mga algorithm.
Hakbang 4
Matapos maglagay ng isang keyword o parirala, ang programa sa server ay naghahanap ng mga tugma sa lahat ng mga lokal na kopya ng mga teksto. Ang mga resulta ay pinagsunod-sunod gamit ang itaas na kumplikadong algorithm. Ang system ng pamamahala ng nilalaman pagkatapos ay awtomatikong bumubuo ng isang pahina na naipasa sa browser. Sa kahilingan ng gumagamit, ang mga sumusunod na pahina ng listahan ay maaaring mabuo: pangalawa, pangatlo, at iba pa.