A probléma kijavításához módosítania kell a robots.txt fájlt

vikicica22 képe

Hello mindenki!

Használom a Google AdSense-t és ezt az üzenetet kaptam a tőlük:

A probléma kijavításához módosítania kell a robots.txt fájlt: adja hozzá a fájl tetejéhez ezt a két sort, hogy hozzáférést biztosíthasson az AdSense robot számára:

User-agent: Mediapartners-Google
Disallow:

A drupal robots.txt –ben már alapból van ilyen:

User-agent: *
Crawl-delay: 10
# Directories
stb... stb..

A kérdésem az lenne, hogy bele kell nyúlni a robots.txt - be vagy nem?
Ha igen hova iram be, pontosan a sorok elé vagy után?

Köszönöm a válaszokat előre is.

Melyik modulhoz, modulokhoz kapcsolódik a téma?: 
balazsgabi képe

biztos, hogy az üzenet így szólt? a disallow utasítás ugyanis tiltani fogja és tudtommal így helyes:

disallow:/

Az Adsensehez pedig pont, hogy engedni kellene ezt a botot, hogy a megfelelő hirdetést helyezhesse el (vagy egy kolléga bot :)

szerintem ha AdSense akkor így kell:

User-agent: Mediapartners-Google
Allow:/

feltéve ha minden oldalon akarsz hirdetést megjeleníteni.

szerk:
azért rákerestem kíváncsiságból és valóban:
http://support.google.com/webmasters/bin/answer.py?hl=hu&answer=156449

0
0
szantog képe

Ez biztos nem. A robots.txt tiltásra való, megengeni akkor kell benne valamit, hogyha az korábban letiltottuk.
Pl:

User-agent: *
Disallow: /
User-agent: Googlebot
Allow: /news/

Ezzel letiltottunk mindent, egyedül a google olvashatja a news részét az oldalnak.

Amikor ezt írja:

User-agent: Mediapartners-Google
Disallow:

kb azt jelenti, hogy állítsd be azokat az elérési utakat, amiket a Mediapartners-Google botnak _nem_ szabad elérnie.

0
0

----
Rájöttem, miért kérdezek olyan ritkán a drupal.hu-n. Amíg szedem össze az infokat a kérdéshez, mindig rájövök a megoldásra.

balazsgabi képe

éreztem, hogy nem kellett volna beleugatnom, mivel a teljes szövegkörnyezetet nem ismerem.

Annyi előnye lett (számomra legalábbis), hogy megint okosabb lettem.
tnx

0
0
szantog képe

"A probléma kijavításához módosítania kell a robots.txt fájlt"

Leginkább mi a probléma? Nekem is reklamál olyan oldalak miatt, mint például noda/add form, comment reply oldal.

0
0

----
Rájöttem, miért kérdezek olyan ritkán a drupal.hu-n. Amíg szedem össze az infokat a kérdéshez, mindig rájövök a megoldásra.

balazsgabi képe

Logikusnak tűnt Gábor érvelése ezért elfogadtam, de csak nem hagyott nyugodni a dolog így utánaolvasgattam.

(majdnem) mindenhol csak annyit említenek, hogy AdSense esetén csak add hozzá azt a két sort, ami fentebb is szerepel, de nekem a nyelvi ellentét nem tetszett. Aztán a http://www.robotstxt.org/orig.html oldalon megtaláltam, hogy a Disallow: (érték nélkül) annyi mint az Allow:/ (értékkel itt a / jel) tehát minden url bekerül az indexbe.

Mivel nincs AdSense fiókom így a hibaüzenet amit kaptatok mindeketten nem is tudom mit takar, de én a következőre tippelek:

A drupal-os robots.txt-ben van egy pár tiltás User-agent:* szabállyal (clean url, /node/add/*, stb.)

Az Adsense modul (?) meg gondolom ezeket le is kezeli, mint az Analytics, hogy hol jeleníthet meg konkrét hirdetést, azaz a js kódot ami meghívja a hirdetéseket, de ezzel nincs összhangban a robots.txt. A Google szerint a különböző botjai nem függenek egymástól, de valami oka biztos, van annak, hogy javasolják az Mediapartners-Google-nek a teljes elérést.

Az általános tanácsuk helyett (minden url) szerintem célravezetőbb kézzel megadni, hogy hol jelenítsen meg kódot és használni inkább a support oldalukon is előforduló Allow:/ tipusú szabályt, hiszen a fentebb említett tiltásba (User-agent:*) beletartozik a Mediapartners-Google botja is.

Azonban ha valaki másként látja, szívesen meghallgatnám a véleményét, mert most már érdekel engem is. (hátha egyszer AdSense-ezek :)

0
0