"Google News is nieuwsportaal, geen zoekmotor"
De Rechtbank van Eerste Aanleg van Brussel heeft op 5 september in kortgeding beslist dat Google alle artikels van Franstalige en Duitstalige Belgische dagbladuitgevers (verenigd in Copiepresse) moet verwijderen uit Google News en de Google cache, zo meldt De Standaard Online. De dwangsom bedraagt 1 miljoen euro per dag. Het vonnis (PDF) moet ten laatste morgen gepubliceerd worden op google.be en news.google.be, op straffe van een half miljoen euro per dag vertraging. Bij nazicht blijken alle artikels van de betrokken dagbladen al verwijderd te zijn uit Google News. Het vonnis staat nog niet op de site van Google News.
Het vonnis bevat enkele opvallende conclusies. De rechter baseerde zich onder meer op een verslag van expert Luc Golvers, die stelt dat Google News geen zoekmotor is, maar een nieuwsportaal. In combinatie met de Google cache kan de gebruiker het artikel opvragen, zelfs nadat de uitgever het verwijderd heeft van zijn eigen website. Daardoor, aldus nog steeds de expert, "verliest de uitgever de controle over zijn websites en hun inhoud". Ook het feit dat Google geld verdient met reclamebooschappen op Google News, speelde mee bij het tot stand komen van het vonnis. Het vonnis stelt dat "het gebruik van Google News de reclameboodschappen van de uitgevers omzeilt" waardoor de uitgevers inkomsten verliezen.
De rechter stelt ook dat de Google cache de gebruiker in staat stelt om de verplichte registratie of betaling op sommige krantenwebsites te omzeilen. Vanuit technisch oogpunt is dat uiteraard onzin, tenzij de uitgever opzettelijk Google's zoekmotor vrije toegang geeft tot pagina's die normaal enkel voor geregistreerde gebruikers toegankelijk zijn.
Technisch bestaat er een eenvoudig middel om zoekrobots de toegang tot websites te ontzeggen: de robots.txt standaard. De websites van Le Soir en La Libre Belgique blijken alvast niet van deze techniek gebruik te maken. Eén en ander doet vermoeden dat de hele zaak niet draait om de wens om uit Google News weg te blijven, maar om de wens om er inkomsten uit te ontvangen.
Reacties
Mike
zondag, 17 september, 2006 - 20:37meta name="robots" content="x"
Kies je x!
x = NOINDEX
x = NOFOLLOW
x = NOCACHE
x = NOARCHIVE
raf
zondag, 17 september, 2006 - 20:46Wie dacht dat de Belgische rechtbanken traag zijn, moet zijn mening herzien. De klacht dateert van begin augustus, de uitspraak volgde een maand later. En de opgelegde dwangsom is niet om mee te lachen. Het gaat dan ook om een ZZZ, een zeer zware zaak. Alle andere rechtszoekenden hebben intussen hun dossiers zien zakken in de stapel. Wat geeft dat, auteursrechten gaan voor. Dat Google en wij allen dus, pluimen moeten laten? Och, het is niet goed voor de mens dat hij teveel weet.
Cogito
zondag, 17 september, 2006 - 21:49Zou er iets achter zitten tegen de 'google-ization' en pro het Europese zoekmotorproject 'Quaero' ?
Karel Jansens
zondag, 17 september, 2006 - 22:01Ik vond al dat Google Nieuws er de laatste dagen kwalitatief op was vooruitgegaan...
Pascal Van Hecke
zondag, 17 september, 2006 - 22:11Luc, je schrijft:
"Ook het feit dat Google geld verdient met reclamebooschappen op Google News, speelde mee bij het tot stand komen van het vonnis."
Er staan geen reclameboodschappen op Google News.
Er wordt in het vonnis (enigszins verongelijkt) verwezen naar
LVB
zondag, 17 september, 2006 - 22:23@Pascal: je hebt gelijk, de verwijzing naar reclame had te maken met de reclameboodschappen van de uitgevers. Ik heb de tekst aangepast.
Pascal Van Hecke
zondag, 17 september, 2006 - 22:25oeps, halve posting doorgestuurd.
Die laatste zin moest zijn:
Er wordt in het vonnis (enigszins verongelijkt) verwezen naar de reclameinkomsten van het bedrijf Google als geheel, maar niet naar die op Google News.
Maar je was me al voor met de edit.
dof
zondag, 17 september, 2006 - 23:09Is het normaal dat een vonnis in kortgeding moet gepubliceerd worden?
Dat lijkt me toch al te bizar.
ivan janssens
maandag, 18 september, 2006 - 10:05raf, inderdaad, als het over auteursrechten gaat dan trapt men als snel op zere tenen, en kan alles plots wel snel gaan. En uiteraard gaat het hier om geld, niet om schone principes. Maar slim zijn ze niet. De uitgevers beseffen blijkbaar nog altijd niet dat hun inkomsten uit verkopen komen en niet uit het via koste wat kost beschermen van hun inkomsten uit auteursrechten (een fractie van inkomsten uit advertenties en abonnementen). Ze schieten in eigen voet.
dof
maandag, 18 september, 2006 - 10:12"snel gaan"
Dat is natuurlijk het wezen van een kortgeding.
Een ander punt van een kortgeding is dat het geen uitspraak ten gronde is.
Vandaar dat de oplegging van het publiceren van het vonnis mij verwondert.
damien
maandag, 18 september, 2006 - 15:52@ivan: "Ze schieten in eigen voet" . ik denk het ook..t'is ongelooflijk
Pascal
maandag, 18 september, 2006 - 16:48@cogito
Die Frans-Duitse(niet Europese) zoekmotor is verre van bestaande als zijnde een echte zoekmotor.
Er is niks dat deze zoekmotor gaat bevoordelen met dit vonnis.
Ik hoor trouwens weinig van deze zoekmotor en zijn technolgie als zou het images ed kunnen vertalen naar zoekresultaten zonder verwijzende tags(enkel op basis vd image zou men kunnen rankings opmaken. Dus de image regelrecht vertalen naar mensentaal)
VH
maandag, 18 september, 2006 - 17:18Die dwangsom lijkt mij zeer hoog, het zou mij verwonderen dat de kranten miljoenen verliezen per dag aan wat Google doet.Ik denk bovendien dat Google net reclameinkomsten genereert voor die websites, meer dan wat de mensen aan "dagpasjes" betalen.
Hoedanook lijken er mij betere oplossingen dan domweg verbieden. Google kan bijvoorbeeld bijhouden hoelang een krant ze op haar website zet, en de cache niet toegankelijk maken na 2 dagen en het gehele artikel verwijderen na 14 dagen.
Naam
maandag, 18 september, 2006 - 19:43"... dat de Google cache de gebruiker in staat stelt om de verplichte registratie of betaling op sommige krantenwebsites te omzeilen. Vanuit technisch oogpunt is dat uiteraard onzin, tenzij de uitgever opzettelijk Google's zoekmotor vrije toegang geeft tot pagina's die normaal enkel voor geregistreerde gebruikers toegankelijk zijn."
Of tenzij content die slechts een beperkte tijd vrij toegankelijk is kosteloos raadpleegbaar blijft via Google Cache lang nadat hij naar een betalend archief verplaatst is.
Pascal
woensdag, 20 september, 2006 - 12:41Het is trouwens geen opzet dat Google caches dateren van een jaar terug. Er zijn daaromtrent wat probleempjes bij Google maar dat zullen ze natuurlijk niet openlijk gaan vertellen.
En zoals gezegd, elke website heeft controle over Google. Men kan op allerlei manieren(niet enkel vie metatags) de toegang voor Google robots ontzeggen of verhinderen dat er gecached wordt
Mike
woensdag, 20 september, 2006 - 22:39De toegang kan je ontzeggen door een robots.txt, Pascal. Kan je het cachen voorkomen op andere manieren dan met metatags?
Pascal
donderdag, 21 september, 2006 - 12:59Zorgen dat ze geen toegang hebben. Als je niet wil dat ze gecached worden dan heeft het ook geen nut ze toe te laten op die pagina.
Kan evt via .htaccess of via javascript.
Via javascript kunnen ze trouwens speciaal voor de Googlebot een andere pagina serveren(een samenvatting bv). En die zit dan in de cache.
Er zijn ongetwijfeld nog meer mogelijkheden. Ik hou me niet echt bezig met Googlebots buiten houden. Wat nut heeft dat nu?(op openbare pagina's)
LVB
donderdag, 21 september, 2006 - 13:16@Pascal: .htaccess is niet de goede manier, omdat de IP-adressen van de Googlebot regelmatig wijzigen of uitbreiden.
Google interpreteert geen Javascript, houdt er geen rekening mee.
Robots.txt is de goede manier om bots te toegang te ontzeggen. Mike heeft gelijk: als je wel in Google wil zitten, maar niet in de cache, dan is een nocache-metatag de enige manier.
Een andere versie serveren aan Google dan aan gewone gebruikers (cloaking) is iets wat Google niet toelaat en penaliseert. Als je totaal niet in Google wil zitten, kan je dat natuurlijk niet schelen, anders wel.
Pascal
donderdag, 21 september, 2006 - 14:11Ik dacht onlangs toch een manier te hebben gezien via .htaccess zonder ip.
de nocache metatag is de beste en gemakkelijkste manier idd maar er zijn andere oplossingen mogelijk.
Cloaking is enkel niet toegestaan als je dat misbruikt om hogere rankings te bereiken of de bezoekers te misleiden. Ethisch cloaken kan. Massa's sites cloaken zonder gepenaliseerd te worden(waaronder hele groten).
http://en.wikipedia.org/wik...
LVB
donderdag, 21 september, 2006 - 14:16@Pascal: .htaccess kan zonder ip-adres, op hostnaam dus, maar dat vereist een reverse DNS lookup en haalt de performantie van de webserver naar beneden. Het wordt dus meestal niet gedaan als je de servercapaciteit efficiënt wilt benutten.