"Google News is nieuwsportaal, geen zoekmotor"

De Rechtbank van Eerste Aanleg van Brussel heeft op 5 september in kortgeding beslist dat Google alle artikels van Franstalige en Duitstalige Belgische dagbladuitgevers (verenigd in Copiepresse) moet verwijderen uit Google News en de Google cache, zo meldt De Standaard Online. De dwangsom bedraagt 1 miljoen euro per dag. Het vonnis (PDF) moet ten laatste morgen gepubliceerd worden op google.be en news.google.be, op straffe van een half miljoen euro per dag vertraging. Bij nazicht blijken alle artikels van de betrokken dagbladen al verwijderd te zijn uit Google News. Het vonnis staat nog niet op de site van Google News.

Het vonnis bevat enkele opvallende conclusies. De rechter baseerde zich onder meer op een verslag van expert Luc Golvers, die stelt dat Google News geen zoekmotor is, maar een nieuwsportaal. In combinatie met de Google cache kan de gebruiker het artikel opvragen, zelfs nadat de uitgever het verwijderd heeft van zijn eigen website. Daardoor, aldus nog steeds de expert, "verliest de uitgever de controle over zijn websites en hun inhoud". Ook het feit dat Google geld verdient met reclamebooschappen op Google News, speelde mee bij het tot stand komen van het vonnis. Het vonnis stelt dat "het gebruik van Google News de reclameboodschappen van de uitgevers omzeilt" waardoor de uitgevers inkomsten verliezen.

De rechter stelt ook dat de Google cache de gebruiker in staat stelt om de verplichte registratie of betaling op sommige krantenwebsites te omzeilen. Vanuit technisch oogpunt is dat uiteraard onzin, tenzij de uitgever opzettelijk Google's zoekmotor vrije toegang geeft tot pagina's die normaal enkel voor geregistreerde gebruikers toegankelijk zijn.

Technisch bestaat er een eenvoudig middel om zoekrobots de toegang tot websites te ontzeggen: de robots.txt standaard. De websites van Le Soir en La Libre Belgique blijken alvast niet van deze techniek gebruik te maken. Eén en ander doet vermoeden dat de hele zaak niet draait om de wens om uit Google News weg te blijven, maar om de wens om er inkomsten uit te ontvangen.

Reacties

#27626

Mike

 

meta name="robots" content="x"
Kies je x!
x = NOINDEX
x = NOFOLLOW
x = NOCACHE
x = NOARCHIVE

#27628

raf

 

Wie dacht dat de Belgische rechtbanken traag zijn, moet zijn mening herzien. De klacht dateert van begin augustus, de uitspraak volgde een maand later. En de opgelegde dwangsom is niet om mee te lachen. Het gaat dan ook om een ZZZ, een zeer zware zaak. Alle andere rechtszoekenden hebben intussen hun dossiers zien zakken in de stapel. Wat geeft dat, auteursrechten gaan voor. Dat Google en wij allen dus, pluimen moeten laten? Och, het is niet goed voor de mens dat hij teveel weet.

#27632

Cogito

 

Zou er iets achter zitten tegen de 'google-ization' en pro het Europese zoekmotorproject 'Quaero' ?

#27636

Karel Jansens

 

Ik vond al dat Google Nieuws er de laatste dagen kwalitatief op was vooruitgegaan...

#27637

Pascal Van Hecke

 

Luc, je schrijft:
"Ook het feit dat Google geld verdient met reclamebooschappen op Google News, speelde mee bij het tot stand komen van het vonnis."
Er staan geen reclameboodschappen op Google News.
Er wordt in het vonnis (enigszins verongelijkt) verwezen naar

#27639

LVB

 

@Pascal: je hebt gelijk, de verwijzing naar reclame had te maken met de reclameboodschappen van de uitgevers. Ik heb de tekst aangepast.

#27640

Pascal Van Hecke

 

oeps, halve posting doorgestuurd.
Die laatste zin moest zijn:
Er wordt in het vonnis (enigszins verongelijkt) verwezen naar de reclameinkomsten van het bedrijf Google als geheel, maar niet naar die op Google News.
Maar je was me al voor met de edit.

#27645

dof

 

Is het normaal dat een vonnis in kortgeding moet gepubliceerd worden?

Dat lijkt me toch al te bizar.

#27669

ivan janssens

 

raf, inderdaad, als het over auteursrechten gaat dan trapt men als snel op zere tenen, en kan alles plots wel snel gaan. En uiteraard gaat het hier om geld, niet om schone principes. Maar slim zijn ze niet. De uitgevers beseffen blijkbaar nog altijd niet dat hun inkomsten uit verkopen komen en niet uit het via koste wat kost beschermen van hun inkomsten uit auteursrechten (een fractie van inkomsten uit advertenties en abonnementen). Ze schieten in eigen voet.

#27671

dof

 

"snel gaan"

Dat is natuurlijk het wezen van een kortgeding.

Een ander punt van een kortgeding is dat het geen uitspraak ten gronde is.

Vandaar dat de oplegging van het publiceren van het vonnis mij verwondert.

#27747

damien

 

@ivan: "Ze schieten in eigen voet" . ik denk het ook..t'is ongelooflijk

#27759

Pascal

 

@cogito
Die Frans-Duitse(niet Europese) zoekmotor is verre van bestaande als zijnde een echte zoekmotor.
Er is niks dat deze zoekmotor gaat bevoordelen met dit vonnis.

Ik hoor trouwens weinig van deze zoekmotor en zijn technolgie als zou het images ed kunnen vertalen naar zoekresultaten zonder verwijzende tags(enkel op basis vd image zou men kunnen rankings opmaken. Dus de image regelrecht vertalen naar mensentaal)

#27767

VH

 

Die dwangsom lijkt mij zeer hoog, het zou mij verwonderen dat de kranten miljoenen verliezen per dag aan wat Google doet.Ik denk bovendien dat Google net reclameinkomsten genereert voor die websites, meer dan wat de mensen aan "dagpasjes" betalen.
Hoedanook lijken er mij betere oplossingen dan domweg verbieden. Google kan bijvoorbeeld bijhouden hoelang een krant ze op haar website zet, en de cache niet toegankelijk maken na 2 dagen en het gehele artikel verwijderen na 14 dagen.

#27779

Naam

 

"... dat de Google cache de gebruiker in staat stelt om de verplichte registratie of betaling op sommige krantenwebsites te omzeilen. Vanuit technisch oogpunt is dat uiteraard onzin, tenzij de uitgever opzettelijk Google's zoekmotor vrije toegang geeft tot pagina's die normaal enkel voor geregistreerde gebruikers toegankelijk zijn."

Of tenzij content die slechts een beperkte tijd vrij toegankelijk is kosteloos raadpleegbaar blijft via Google Cache lang nadat hij naar een betalend archief verplaatst is.

#27897

Pascal

 

Het is trouwens geen opzet dat Google caches dateren van een jaar terug. Er zijn daaromtrent wat probleempjes bij Google maar dat zullen ze natuurlijk niet openlijk gaan vertellen.

En zoals gezegd, elke website heeft controle over Google. Men kan op allerlei manieren(niet enkel vie metatags) de toegang voor Google robots ontzeggen of verhinderen dat er gecached wordt

#27938

Mike

 

De toegang kan je ontzeggen door een robots.txt, Pascal. Kan je het cachen voorkomen op andere manieren dan met metatags?

#27954

Pascal

 

Zorgen dat ze geen toegang hebben. Als je niet wil dat ze gecached worden dan heeft het ook geen nut ze toe te laten op die pagina.
Kan evt via .htaccess of via javascript.
Via javascript kunnen ze trouwens speciaal voor de Googlebot een andere pagina serveren(een samenvatting bv). En die zit dan in de cache.

Er zijn ongetwijfeld nog meer mogelijkheden. Ik hou me niet echt bezig met Googlebots buiten houden. Wat nut heeft dat nu?(op openbare pagina's)

#27956

LVB

 

@Pascal: .htaccess is niet de goede manier, omdat de IP-adressen van de Googlebot regelmatig wijzigen of uitbreiden.

Google interpreteert geen Javascript, houdt er geen rekening mee.

Robots.txt is de goede manier om bots te toegang te ontzeggen. Mike heeft gelijk: als je wel in Google wil zitten, maar niet in de cache, dan is een nocache-metatag de enige manier.

Een andere versie serveren aan Google dan aan gewone gebruikers (cloaking) is iets wat Google niet toelaat en penaliseert. Als je totaal niet in Google wil zitten, kan je dat natuurlijk niet schelen, anders wel.

#27963

Pascal

 

Ik dacht onlangs toch een manier te hebben gezien via .htaccess zonder ip.

de nocache metatag is de beste en gemakkelijkste manier idd maar er zijn andere oplossingen mogelijk.
Cloaking is enkel niet toegestaan als je dat misbruikt om hogere rankings te bereiken of de bezoekers te misleiden. Ethisch cloaken kan. Massa's sites cloaken zonder gepenaliseerd te worden(waaronder hele groten).
http://en.wikipedia.org/wik...

#27964

LVB

 

@Pascal: .htaccess kan zonder ip-adres, op hostnaam dus, maar dat vereist een reverse DNS lookup en haalt de performantie van de webserver naar beneden. Het wordt dus meestal niet gedaan als je de servercapaciteit efficiënt wilt benutten.