scrie mai jos intrebarea ta:
lasa-ne adresa ta de email:
Informatii despre Motoarele de cautare
    Ce sunt motoarele de cautare si ce rol joacă ele în angrenajul numit internet? Cum ar arata internetul fără aceste motoare de căutare?
Ultima actualizare: 14-mar.-2013


Din cuprinsul articolului

Motoarele de cautare: Cum reusesc motoarele de cautare sa descopere informatii noi

Motoarele de cautare actioneaza pe mai multe "fronturi". Partea vizibila pentru vizitatorii unui astfel de motor este pagina principala prin intermediul careia sunt cautate informatii si in care le sunt returnate rezultatele.

Totusi, cea mai mare parte a muncii pe care o presupune functionarea un mare motor de cautare se face in alta parte. Zilnic, "paianjenii" acestor motoare de cautare cutreiera reteaua internet pentru cautarea informatiilor noi si actualizarea celor existente. Apoi, o serie de calculatoare puternice sorteaza aceste informatii, le prelucreaza si le categorisesc in functie de diversi algoritmi programati de ingineri, apoi le stocheaza in propriile baze de date de unde vor fi servite sub forma de rezultate utilizatorilor motorului de cautare.

Robotii de cautare

Am folosit mai sus cuvantul "paianjeni" (en.: spiders) pentru a denumi o categorie aparte de programe software, prin analogie cu ceea ce reprezinta ele pentru wolrd-wide-web (care intr-o traducere aproximativa ar fi o panza de paianjen mondiala, practic reprezentata de totalitatea retelelor de calculatoare interconectate care fac posibil accesul la informatie).

In limbaj academic, aceste programe sunt cunoscute sub denumirea de roboti sau agenti de cautare. In principiu sunt niste browsere web simplificate care incarca informatiile disponibile intr-o anumita pagina web si le transmit mai apoi altor calculatoare pentru a fi prelucrate. Acesti roboti de cautare viziteaza o lista de adrese web pe care le primesc de la un calculator central care se ocupa de alocarea acestor link-uri in functie de prioritatile motorului de cautare. Listele de link-uri sunt actualizate in permanenta din informatiile pe care agentii de cautare le transmit spre procesoarele de informatii ale motorului de cautare si apoi sunt distribuite agentilor de cautare intr-o anumita ordine si cu o anumita frecventa, in functie de cat de des se modifica informatiile din paginile web. De exemplu un site cu informatii actualizate zilnic, cum este cel al unui ziar online va fi vizitat mai des decat un site cu informatii care nu se modifica cu lunile.

Probabil cel mai asteptat dintre toti acesti roboti de cautare este "GoogleBot", agentul de indexare al motorului de cautare Google. Asa cum ati observat, robotii de cautare au fost botezati cu diverse nume pentru a putea fi recunoscuti de catre site-urile web. Un administrator de site web poate sa permita sau sa interzica unui robot de cautare indexarea in totalitate sau doar partial a resurselor site-ului web (cel putin teoretic).

Pentru a face acest lucru, se foloseste un fisier special denumit "robots.txt" in directorul radacina al site-urilor web. In acest fisier,  folosind un limbaj simplificat, administratorii de site indica robotilor de cautare care sunt zonele din site pe care au voie sa indexeze si pe care nu. Tot in acest mod, se pot specifica permisiuni sau restrictii de indexare pentru fiecare robot in parte. Robotii de cautare citesc aceste instructiuni si apoi decid daca continua indexarea sau nu, insa aceasta este la latitudinea lor pentru ca fizic nu le este restrictionat accesul la resursele site-ului.



Ghid complet de terapii naturiste, alternative si complementare din Romania, clinici naturiste pe orase
Cabinet de nutritie, diete personalizate si lifestyle Cluj Napoca
© 2019 InfoBazar - Toate drepturile rezervate. Infobazar este un proiect dezvoltat de Coral Design - firma web design Cluj Napoca
politica de confidentialitate