როგორ გამოვრიცხოთ WordPress შინაარსი Google ძებნადან

როგორ გამოვრიცხოთ WordPress შინაარსი და ფაილები Google ძებნადან

ზოგჯერ თქვენ უნდა გამოვრიცხოთ WordPress– ის კონკრეტული შინაარსი ან ფაილები Google– ის ძიების შედეგების ინდექსში. ინდექსი ან „ინდექსირება“ Google- ის და სხვა საძიებო სისტემის გაჩენამდე იყო სიტყვა, რომელიც ძირითადად წიგნებთან იყო დაკავშირებული. ეს ჩვეულებრივ ცხოვრობს წიგნების უმეტესობის უკან, და სწორედ ამიტომ კემბრიჯის ლექსიკონი განმარტავს მას ამ კონტექსტში:


ინდექსი: ანბანური სია, მაგალითად წიგნის უკანა ნაწილში დაბეჭდილი, სადაც მოცემულია რომელი გვერდია თემა, სახელი და ა.შ..

სწრაფად დაველოდებით 1995 წელს, ინტერნეტის ბუმის დროს, ჩვენ გვაქვს ისეთი სერვისები, როგორიცაა Yahoo საძიებო სისტემა და მოვიდა 1997 წელს, Google– ის ძიებამ მკვეთრად შეცვალა, თუ როგორ ვძებნით ინტერნეტში ინფორმაციას და ვეძებთ..

2018 წლის იანვრის თვეში ჩატარებული გამოკითხვის თანახმად, ინტერნეტით არის 1,805,260,010 (1,8 მილიარდზე მეტი) ვებგვერდი, ამ ვებგვერდებიდან ბევრი კი საერთოდ არ სტუმრობს..

რა არის Google Indexing?

არსებობს სხვადასხვა საძიებო სისტემები, განსხვავებული ფორმატის ინდექსით, მაგრამ პოპულარულ საძიებო სისტემებში შედის Google, Bing და კონფიდენციალურობის მქონე პირები, duckduckgo.

Google ინდექსირება ზოგადად ეხება ახალი ვებ – გვერდების დამატების პროცესს, მათ შორის ციფრული შინაარსის ჩათვლით, როგორიცაა დოკუმენტები, ვიდეო და სურათები და მათი მონაცემთა ბაზაში შენახვა. სხვა სიტყვებით, იმისათვის, რომ თქვენი საიტის შინაარსი გამოჩნდეს Google ძიების შედეგებში, ისინი პირველ რიგში უნდა ინახებოდეს Google ინდექსში.

რა არის Google ინდექსირება?

Google- ს შეუძლია დაანგარიშოს ყველა ეს ციფრული გვერდი და შინაარსი თავისი ობობების, მცოცავების ან ბოტების გამოყენებით, რომლებიც განმეორებით იჭრებიან სხვადასხვა ვებსაიტებს ინტერნეტში. ეს ბოტები და მცოცავები იცავენ ვებსაიტების მფლობელების მითითებებს იმის შესახებ, თუ რა უნდა დაიშალოს და რა უნდა იქნას მიღებული უგულებელყოფის დროს..

რატომ არის საჭირო საიტების ინდექსირება?

ციფრული ხანის ამ ეპოქაში, თითქმის შეუძლებელია მილიარდობით ვებ – გვერდის ნავიგაცია, რომლებიც იპოვნებენ კონკრეტულ თემას და შინაარსს. გაცილებით ადვილი იქნება, თუ არსებობს ინსტრუმენტი, რომ დაგვანახოს, რომელი საიტების სანდოა, რომელი შინაარსი არის ჩვენთვის სასარგებლო და აქტუალური. სწორედ ამიტომ არსებობს Google და აჩენს ვებ – გვერდებს მათი ძიების შედეგებში.

ინდექსირება ხდება აუცილებელი ნაწილი იმისა, თუ როგორ მუშაობს საძიებო სისტემები ზოგადად და განსაკუთრებით Google- ი. იგი ეხმარება იდენტიფიცირება სიტყვების და გამონათქვამების შესახებ, რომლებიც საუკეთესოდ აღწერს გვერდს და მთლიანობაში ხელს უწყობს გვერდისა და ვებსაიტების რეიტინგს. თქვენი ვებ – გვერდის Google– ის პირველ გვერდზე შესვლისთვის, ვებგვერდების და ციფრული ფაილების ჩათვლით, როგორიცაა ვიდეო, სურათები და დოკუმენტები, საჭიროა ინდექსირება.

ინდექსირება წინაპირობაა, რათა ვებსაიტებმა კარგად დაიმკვიდრონ საძიებო სისტემები ზოგადად და განსაკუთრებით Google- ში. საკვანძო სიტყვების გამოყენებით, საიტები უკეთესად შეიძლება ნახონ და აღმოაჩინონ საძიებო სისტემების ინდექსების და რანჟირების შემდეგ. ამის შემდეგ კარი გახსნის უფრო მეტ ვიზიტორს, აბონენტს და პოტენციურ მომხმარებელს თქვენი ვებსაიტისა და ბიზნესისათვის.

გვამის დასამალი საუკეთესო ადგილი Google- ის მეორე გვერდია.

მიუხედავად იმისა, რომ არაერთი ინდექსირებული გვერდი გაქვთ, თქვენს საიტებს ავტომატურად არ აღემატებათ, თუ ამ გვერდების შინაარსი არის მაღალი ხარისხის, ასევე შეგიძლიათ მიიღოთ სტიმულირება SEO– ის თვალსაზრისით..

რატომ და როგორ უნდა დაბლოკოს საძიებო სისტემა შინაარსის ინდექსისგან

მიუხედავად იმისა, რომ ინდექსირება შესანიშნავია ვებსაიტისა და ბიზნესის მფლობელებისთვის, არის გვერდები, რომელთა მოძიებაც შეიძლება არ გინდათ. შეიძლება საფრთხე შეექმნათ მგრძნობიარე ფაილებისა და შინაარსის გამოვლენით ინტერნეტით ასევე. პაროლების გარეშე ან ავთენტიფიკაციის გარეშე, პირადი შინაარსი ექვემდებარება დაუცველობას და არასანქცირებულ წვდომას, თუ ბოტებს უფასო გადაცემა ეძლევა ვებ – გვერდის საქაღალდეებსა და ფაილებზე..

2000-იანი წლების დასაწყისში ჰაკერები გამოიყენეს Google– ის ძებნა საკრედიტო ბარათის ინფორმაციის სანახავად ვებსაიტებიდან მარტივი საძიებო მოთხოვნებით. ამ უსაფრთხოების ხარვეზმა გამოიყენა მრავალი ჰაკერების მიერ ელექტრონული კომერციის ვებსაიტებიდან ბარათის ინფორმაციის მოპარვის მიზნით.

კიდევ ერთი ბოლოდროინდელი უსაფრთხოების ხარვეზი გასულ წელს მოხდა box.com– ზე, ღრუბლის შენახვის პოპულარული სისტემა. უსაფრთხოების ხვრელი გამოაშკარავა შვეიცარიისათვის მუქარის მენეჯერის მარკუს ნეისმა. მან განაცხადა, რომ საძიებო სისტემების მარტივმა ექსპლოატაციებმა, მათ შორის Google და Bing, შეიძლება გაამჟღავნოს კონფიდენციალური ფაილები და ინფორმაცია მრავალი ბიზნესისა და ინდივიდუალური მომხმარებლის შესახებ.

მსგავსი შემთხვევები ინტერნეტით ხდება და შეიძლება გამოიწვიოს ბიზნესის მფლობელებისთვის გაყიდვების და შემოსავლის დაკარგვა. კორპორატიული, ელექტრონული კომერციის და წევრობის ვებსაიტებისთვის, კრიტიკულად მნიშვნელოვანია, პირველ რიგში, დაბლოკოს მგრძნობიარე შინაარსისა და პირადი ფაილების ძებნის ინდექსების დაბლოკვა, შემდეგ კი, ალბათ, მათი კარგი ავტორიზაციის სისტემის უკან დაყენება.

მოდით განვიხილოთ, თუ როგორ შეგიძლიათ აკონტროლოთ რომელი შინაარსი და ფაილები, რომელთა საშუალებით შესაძლებელია Crawled და ინდექსირება Google- ის და სხვა საძიებო სისტემების მიერ.

1. Robots.txt- სთვის სურათების გამოყენება

Robots.txt არის ფაილი, რომელიც მდებარეობს თქვენი საიტის ძირში, რომელიც უზრუნველყოფს Google- ის, Bing- ის და სხვა საძიებო სისტემების ბოტს, რომელზეც მითითებულია რა უნდა დაიშალოს და რა არა. როგორც წესი, robots.txt ჩვეულებრივ გამოიყენება მცოცავი ტრაფიკის და ვების (მობილური და დესკტოპის წინააღმდეგ) რობოტების გასაკონტროლებლად, იგი შეიძლება გამოყენებულ იქნას Google- ის ძიების შედეგებში სურათების გამოჩენის თავიდან ასაცილებლად..

WordPress ჩვეულებრივი ვებსაიტების რობოტები.txt ფაილი ასე გამოიყურება:

მომხმარებელი-აგენტი: *
უარი თქვით: / wp-admin /
უარი თქვით: / wp-მოიცავს /

სტანდარტული robots.txt ფაილი იწყება ინსტრუქციით მომხმარებლის აგენტისათვის და ვარსკვლავების სიმბოლო. ვარსკვლავი არის ინსტრუქცია ყველა ბოტისთვის, რომლებიც ვებსაიტზე შემოვლენ, დაიცვან მის ქვემოთ მითითებული ყველა ინსტრუქცია.

შეინახეთ ბოტები სხვა ციფრული ფაილებისგან Robot.txt– ის გამოყენებით

Robots.txt ასევე შეგიძლიათ გამოიყენოთ ციფრული ფაილების საძიებო სისტემების მწყობრის შესაჩერებლად, როგორიცაა PDF, JPEG ან MP4. PDF და JPEG ფაილის ძებნის დაბლოკვის მიზნით, ამას უნდა დაემატოს robots.txt ფაილი:

PDF ფაილები

მომხმარებელი-აგენტი: *
უარი თქვით: / pdfs / # ბლოკი / pdfs / დირექტორია.
უარი თქვით: * .pdf $ # ბლოკი pdf ფაილებს ყველა ბოტიდან. თუმცა არასტანდარტული, ის მუშაობს მთავარი საძიებო სისტემებისთვის.

სურათები

მომხმარებელი-აგენტი: Googlebot-Image
უარი თქვით: /images/cats.jpg #Block cats.jpg სურათი სპეციალურად Googlebot- ისთვის.

თუ გსურთ დაბლოკოთ ყველა .GIF გამოსახულების ინდექსების შემოღება და Google გამოსახულების ძებნაზე გამოსახვა, ხოლო სურათების სხვა ფორმატის, როგორიცაა JPEG და PNG, დაშვების შემთხვევაში, უნდა გამოიყენოთ შემდეგი წესები:

მომხმარებელი-აგენტი: Googlebot-Image
უარი თქვით: /***

Მნიშვნელოვანი: ზემოთ მოყვანილი ამონაწერები უბრალოდ გამორიცხავს თქვენს შინაარსს მესამე მხარის საიტების ინდექსით, როგორიცაა Google. ისინი ჯერ კიდევ ხელმისაწვდომია, თუ ვინმემ იცის სად უნდა გამოიყურებოდეს. ფაილების პირადი ჩასადენად, რომ არავის მიუწვდებოდეთ მათ, უნდა დაგჭირდეთ სხვა მეთოდის გამოყენება, მაგალითად, ამ შინაარსის შეზღუდვის მოდული.

Googlebot-Image შეიძლება გამოყენებულ იქნას სურათების დაბლოკვისა და კონკრეტული გამოსახულების გაფართოებისთვის Google გამოსახულების ძიებაში. იმ შემთხვევაში თუ გსურთ გამორიცხოთ ისინი Google- ის ყველა ძებნადან, მაგ. ვებ – ძიება და სურათები, მიზანშეწონილია გამოიყენოთ Googlebot– ის მომხმარებლის აგენტი.

ვებგვერდზე სხვადასხვა ელემენტების Google მომხმარებლის სხვა აგენტები მოიცავს Googlebot-Video- ს Google- ის ვიდეო განყოფილებაში გამოყენების ვიდეოების შესახებ ინტერნეტში. ანალოგიურად, Googlebot- ის მომხმარებლის აგენტის გამოყენებით აიკრძალება ყველა ვიდეოს Google- ის ვიდეოების, ვებ – ძიების ან მობილური ვებ – ძიების ჩვენება.

რობოტები txt ნო-ინდექსი

გაითვალისწინეთ, რომ Robots.txt– ის გამოყენება არ არის შესაბამისი მეთოდი მგრძნობიარე ან კონფიდენციალური ფაილების და შინაარსის დაბლოკვისთვის, შემდეგი შეზღუდვების გამო:

  • Robots.txt- ს შეუძლია მხოლოდ დავალებით დავალებების დავალება; სხვა არაკომპეტენტური საძიებო სისტემები და ბოტები შეიძლება უბრალოდ უგულებელყონ მისი მითითებები.
  • Robots.txt არ აჩერებს თქვენს სერვერს მოთხოვნისთანავე უნებართვო მომხმარებლებისთვის ამ გვერდების და ფაილების გაგზავნის შესახებ.
  • საძიებო სისტემებს კვლავ შეუძლიათ მოძებნონ და დაანგარიშონ თქვენი დაბლოკვის გვერდი და შინაარსი, თუ ისინი დაკავშირებულია სხვა ვებსაიტებისა და წყაროებისგან.
  • Robots.txt ხელმისაწვდომია ყველასთვის, ვისაც შემდეგ შეეძლო წაიკითხოს თქვენი ყველა მითითებული ინსტრუქცია და პირდაპირ შეხვიდეს ამ შინაარსებსა და ფაილებზე

ძებნის ინდექსების დაბლოკვისთვის და თქვენი პირადი ინფორმაციის უფრო ეფექტურად დასაცავად, გთხოვთ, გამოიყენოთ შემდეგი მეთოდები.

2. გვერდებისთვის არაინდექსის Meta Tag გამოყენებით

არაინდიზიური მეტა – ტეგის გამოყენება სათანადო და ეფექტური მეთოდია თქვენს ვებსაიტზე მგრძნობიარე შინაარსის ძებნის ინდექსების დაბლოკვის მიზნით. განსხვავებით robots.txt– სგან, არანორმალური მეტა – ტეგაა განთავსებული ვებგვერდის განყოფილება ძალიან მარტივი HTML ტეგით:



...

ამ გვერდზე მითითების ნებისმიერი გვერდი არ გამოჩნდება Google– ის ძიების შედეგზე. სხვა დირექტივები როგორიცაა nofollow და notranslate ასევე შეიძლება გამოყენებულ იქნას ვუთხრა ვებ crawlers- ს, რომ არ დაათვალიეროთ ბმულები და გთავაზობთ ამ გვერდის თარგმნას..

თქვენ შეგიძლიათ დაავალოთ მრავალრიცხოვანი მცოცავი, მრავალჯერადი მეტა თეგის გამოყენებით შემდეგ გვერდზე:



...


თქვენს კოდექსში ამ კოდის დამატების ორი გზა არსებობს. თქვენი პირველი ვარიანტია შექმნათ WordPress- ის ბავშვთა თემა, შემდეგ თქვენს ფუნქციებში.php შეგიძლიათ გამოიყენოთ WordPress wp_head სამოქმედო კაკალი, ჩადეთ noindex ან სხვა მეტა თეგები. ქვემოთ მოცემულია მაგალითი, თუ როგორ არ აპირებთ შეტყობინებას თქვენი შესვლის გვერდზე.

add_action ('wp_head', ფუნქცია ()
if (is_page ('შესვლა')) {
ექო '';
}
});

თქვენი მეორე ვარიანტია გამოიყენოთ თქვენი SEO მოდული, რომ გააკონტროლოთ გვერდის ხილვა. მაგალითად, Yoast SEO– ს საშუალებით შეგიძლიათ წასვლა მოწინავე პარამეტრების განყოფილება გვერდზე და უბრალოდ აირჩიოთ „არა“ იმ პარამეტრებისთვის, რომლებიც საშუალებას აძლევს საძიებო სისტემას აჩვენოს გვერდი:

Yoast SEO ძიების შედეგების დაყენება

3. X-Robots-Tag HTTP ჰედერის გამოყენება სხვა ფაილებისთვის

X-Robots-Tag გაძლევთ მეტ მოქნილობას თქვენი შინაარსისა და ფაილების საძიებო ინდექსების დაბლოკვის მიზნით. კერძოდ, როდესაც არ ხდება ინდექსის მეტ-ტეგთან შედარება, იგი შეიძლება გამოყენებულ იქნას როგორც HTTP სათაურის პასუხი ნებისმიერი მოცემული URL– სთვის. მაგალითად, შეგიძლიათ გამოიყენოთ X-Robots-Tag სურათი, ვიდეო და დოკუმენტური ფაილები, სადაც შეუძლებელია რობოტების მეტა თეგების გამოყენება..

Შეგიძლია წაიკითხო Google- ის სრული რობოტების მეტა თეგების სახელმძღვანელო, მაგრამ აქ მოცემულია, თუ როგორ შეგიძლიათ ავალდებულოთ crawlers არ დაიცვან JPEG სურათი X-Robots-Tag გამოყენებით მისი HTTP პასუხით:

HTTP / 1.1 200 OK
შინაარსის ტიპი: სურათი / jpeg
თარიღი: შაბათი, 27 ნოემბერი 2018 01:02:09 GMT
(…)
X-Robots-Tag: noindex, nofollow
(…)

ნებისმიერი დირექტივა, რომელიც შეიძლება გამოყენებულ იქნას რობოტების მეტა – ტეგთან, ასევე გამოიყენება X-Robots-Tag– ზე. ანალოგიურად, შეგიძლიათ დაავალოთ მრავალ საძიებო სისტემის ბოტები, ასევე:

HTTP / 1.1 200 OK
თარიღი: სამშაბათი, 21 სექტემბერი 2018 21:09:19 GMT
(…)
X-Robots-Tag: googlebot: nofollow
X-Robots-Tag: bingbot: noindex
X-Robots-Tag: otherbot: noindex, nofollow
(…)

მნიშვნელოვანია აღინიშნოს, რომ საძიებო სისტემების ბოტები აღმოაჩენენ რობოტების მეტა თეგებს და X-Robots-Tag HTTP თავსატეხებს მცოცავი პროცესის დროს. ასე რომ, თუ გინდათ რომ ეს ბოტები დაიცვან თქვენი ინსტრუქცია, რომ არ დაიცვან ან იწეროთ რაიმე კონფიდენციალური შინაარსი და დოკუმენტები, არ უნდა შეაჩეროთ ეს გვერდი და შეიტანოთ URL მისამართები მცოცავიდან.

თუ ისინი robots.txt ფაილის გამოყენებით გადაკეტილნი არიან, ინდუქციის ინდექსის შესახებ მითითებები არ იკითხება და ასე არ მიიღება. შედეგად, თუ სხვა ვებ – გვერდები თქვენს შინაარსსა და დოკუმენტებს უკავშირებენ, ისინი კვლავ ინდექსირდებიან გუგლის და სხვა საძიებო სისტემების მიერ.

4. Apache სერვერებისთვის .htaccess წესების გამოყენება

თქვენ ასევე შეგიძლიათ დაამატოთ X-Robots-Tag HTTP სათაური თქვენს .htaccess ფაილში, რომ შეცვალოთ crawlers საწყისი ინდექსების გვერდები და ციფრული შინაარსი თქვენს ვებ – გვერდზე, რომელიც განთავსებულია Apache სერვერზე. არაინდიზიური მეტა თაგებისგან განსხვავებით, .htaccess წესები შეიძლება გამოყენებულ იქნას მთელ ვებსაიტზე ან კონკრეტულ საქაღალდეში. რეგულარული გამონათქვამების მხარდაჭერა გთავაზობთ კიდევ უფრო მაღალ მოქნილობას, რომ ერთდროულად მრავალჯერადი ფაილის ტიპები.

Googlebot- ის, Bing- ისა და Baidu- ს ვებ – გვერდის ან სპეციალური დირექტორიის გადასაჭრელად, გამოიყენეთ შემდეგი წესები:

გადაწერა კიდევ ერთხელ
გადაწერა ხელახლა% {HTTP_USER_AGENT (googlebot | bingbot | Baiduspider) [NC]
გადაწერილი წესი. * - [R = 403, L]

ყველა .txt, .jpg, .jpeg, .pdf ფაილების ძებნის ინდექსის დაბლოკვისთვის თქვენს მთელ ვებ – გვერდზე დაამატეთ შემდეგი ჩანაწერი:


ჰედერის დაყენება X-Robots-Tag "noindex, nofollow"

5. გვერდის ავტორიზაციის გამოყენება მომხმარებლის სახელით და პაროლით

ზემოხსენებული მეთოდები ხელს შეუშლის თქვენი პირადი შინაარსისა და დოკუმენტების გამოვლენას Google ძიების შედეგებში. ამასთან, ბმულის მქონე ყველა მომხმარებელს შეუძლია მიაღწიოს თქვენს შინაარსს და თქვენს ფაილებს პირდაპირ წვდომას მიაღწიოს. უსაფრთხოებისთვის რეკომენდებულია სათანადო ავტორიზაციის დაყენება მომხმარებლის სახელით და პაროლით, ასევე როლის დაშვების ნებართვა.

გვერდის ავთენტიფიკაციის გამოყენებით

მაგალითად, გვერდები, რომლებიც მოიცავს პერსონალის პროფილურ პროფილებს და მგრძნობიარე დოკუმენტებს, რომლებზეც ანონიმური მომხმარებლები არ უნდა მიიღონ წვდომა, უნდა გაიარონ ავტორიზაციის კარიბჭის უკან. ასე რომ, მაშინაც კი, როდესაც მომხმარებლები რატომღაც ახერხებენ გვერდების პოვნას, მათ სთხოვენ სერთიფიკატს, სანამ შეამოწმებენ შინაარსს.

WordPress პაროლის დაცვა

ამის გაკეთება WordPress– სთან ერთად უბრალოდ დააყენეთ პოსტის ხილვადობა დაცულია პაროლი. ამ გზით შეგიძლიათ აირჩიოთ პაროლი, რომელიც საჭიროა ამ გვერდზე არსებული შინაარსის სანახავად. ეს საკმაოდ მარტივია გასაკეთებელი პოსტი / გვერდის საფუძველზე. უფრო სრულყოფილი საიტის კონფიდენციალურობისთვის, შეეცადეთ დაამატეთ WordPress– ის წევრობის ერთ – ერთი ამ plugin თქვენს ვებსაიტს.

გაითვალისწინეთ, რომ პაროლით დაცული ან დამალული გვერდები საძიებო სისტემებისა და ვიზიტორებისგან არ იცავს მის შინაარსთან ერთვის დოკუმენტებს, ვიდეოებს და სურათებს. თქვენი WordPress ფაილების ატვირთვის რეალური დაცვისთვის, რეკომენდებულია უმაღლესი ხარისხის სერვისი, როგორიცაა უშუალო წვდომის ოქროს თავიდან ასაცილებლად.

დასკვნა

Google- ის ერთ გვერდზე მოხვედრის შემთხვევაში, ბიზნესის მეპატრონეებმა არ უნდა გაითვალისწინონ რა შეიძლება ნახონ საძიებო სისტემებმა. ხართ თუ არა ბლოკირება კონკრეტული ფაილიდან, მალვით შესასვლელი გვერდის დამალვა, ან პაროლი, რომელიც იცავს პირადი მომხმარებლის ცნობარს … უამრავი გვერდია, რომლებმაც არ უნდა იანგარიშონ ინდუქცია, როდესაც საქმე საძიებო სისტემებს ეხება.

გაქვთ შეკითხვები ძიების შედეგების შინაარსის გამოკლებით? ან ხელს უშლის გარკვეული ფაილების bing ინდექსირებას? დატოვე კომენტარი ქვემოთ!

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me
    Like this post? Please share to your friends:
    Adblock
    detector
    map