Väldigt sällan blir jag uppriktigt överraskad av uppmaningar till skärpning av upphovsrättslagstiftningen. Det finns någon form av moraliskt imperativ som rättfärdigar att de som förespråkar gamla tiders upphovsrätter ständigt drar upp antingen påstådda förlorade inkomster (rätt till frukten av sitt arbete, även om det är sinnligt), samt rätten att själv kunna kontrollera distributionskanalerna för ett verk (på samma sätt som man har rätt att välja vem man säljer sin stol till eller genom vilken typ av återförsäljare).
Men nu såg jag just det här: Fler tidningar med WAN i spetsen vill lagstifta mot sökmotorernas möjligheter att indexera tidningsinnehåll på nätet.
Jag förstår inte syftet med att förespråka en sån regeländring alls.
Vad jag lurar på är dessutom om det inte föreligger så, att mediaföretagsägare i Europa inte kan åberopa någon generell vägran att låta visst tidningsstoff publiceras på nätet. Snarare ligger rätten att vägra på varje enskild upphovsperson till en artikel. Där lär Europa skilja sig från USA som mycket vidlyftigare tillåter att man avskriver sig all upphovsrätt när man producerar verket som del av en anställning hos arbetsgivare. I USA skulle man alltså kunna tänka sig någon form av förlängd moralisk rätt för mediakoncernsägarna att vägra viss form av distribution. Men i Europa borde det falla på den enskilde upphovspersonen.
Så vad är poängen? Det verkar inte finnas någon moralisk rätt att åberopa i Europa, och de ekonomiska vinsterna av att undslippa indexering torde vara obefintliga.
En av förespråkarna av lagändringen, EPC, verkar vara en sammanslutning av mediaföretagsägare och enligt egen utsago på intet sätt en branschorganisation. Den andra förespråkaren, WAN har som enda svenska medlem, Tidningsutgivareföreningen, är en sammanslutning av tidningar (och alltså inte tidningarnas moderbolag, eller ägare).
Både EPC och WAN säger sig stå för så få restriktioner på reklam och annonsering som möjligt. Tidningarnas webbredaktioner släpper ju in så många annonser att man knappt kan läsa artiklarna!
Jag är lite förvirrad. Även om det vore så att det finns både moraliska och ekonomiska incitament för ett sånt här regelverk, förstår jag inte varför det skulle behövas en regel på EU-nivå. Eller ens nationell. Det känns som en situation som bäst skulle kunna regleras mellan de berörda parterna, som i fallet sökmotorer och mediaföretag båda är privata. Och EU torde ju vara förpliktigat att bevara den fria marknaden fri enligt ramfördragen.
Nu hänger jag inte med. Vilket incitament skulle Google ha att begränsa sin rätt att indexera i en sådan förhandling? Menar du möjligen att google skulle kunna ta betalt för att inte indexera? (lol)
Med en lagändring skulle ju Google istället behöva betala för att *få* indexera. Så självklart ser tidningarna att det finns pengar där.
Just det här lagförslaget är så dumt att jag nästan tycker de kunde genomföra det bara för att jag vill se de tidningar som börjar tillämpa indexeringsstopp gå under.
Det kan ha med detta att göra...
"Nästan alla nyhetsorganisationer kommer inom de närmaste tolv månaderna att börja ta betalt för innehåll på nätet. Det förutspår Financial Times chefredaktör Lionel Barber."
http://www.svd.se/naringsliv/it/artikel_3226327.svd
Det är ju klart att sökmotorerna inte kan få indexera innehållet då får ju inte tidningarna betalt... :-/
Ingen har såvitt jag vet hävdat att indexeringen skulle kränka artikelförfattarnas ideella rättigheter, utan det är helt klart de ekonomiska rättigheterna saken handlar om, och dessa har upphovsmännen överlåtit till tidningarna. Därför spelar det inte så stor roll huruvida man ser det hela ur amerikanskt eller europeiskt perspektiv.
Dessutom tillkommer ensamrätten till det urval av nyheter som varje tidning skaffar sig. I den mån urvalet görs av en fysisk person (eller ett fåtal personer i samarbete) såsom tidningens chefredaktör, så uppstår ett samlingsverk med genuint upphovsrättsligt skydd till långt efter redaktörens död, men i övrigt skyddas urvalet främst som en katalog med en skyddstid på 15 år efter tillkomsten (enligt 49 § upphovsrättslagen). I internationella sammanhang brukar man benämna detta database rights, eftersom detta är sent påkommet i andra länder, men i Sverige fanns alltså katalogskydd redan på 1960-talet. Det är en närstående rättighet, till vilken inte behöver höra någon fysisk person som upphovsman, och därmed föreligger inte heller några ideella rättigheter till katalogen.
Invändningarna mot Google har vad jag förstår sin grund i att Google helt enkelt aggregerar alla tidningars nyhetsurval till ett nytt och mer omfattande sådant. Eftersom databasskyddet är förhållandevis nytt och oprövat i många länder, så antar jag att det inte finns så mycket rättspraxis att luta sig mot när det gäller att avgöra vad som är en självständig databas respektive en utökning av en befintlig sådan, och därför kräver man ytterligare lagreglering i stället för att kasta sig in i osäkra rättstvister. Kanske kan vi hitta ett svar i svensk rättspraxis rörande "katalogplagiat", men det skulle knappast ha någon betydelse på den internationella arenan.
Om jag sammanställer en sorterad lista över högerbloggar, och du gör en motsvarande över vänsterbloggar, så erhåller vi katalogskydd (i Sverige) för våra respektive alster. Om sedan Google kopierar båda listorna och sorterar ihop posterna till en lista över politiska bloggar i allmänhet (både vänster och höger), då tycker jag att det ganska tydligt inkräktar på katalogskyddet (att vi båda säkert inte skulle ha något att invända mot kopieringen lämnar jag därhän). Spelar det någon roll (rättsligt sett) huruvida listorna återges på papper eller i elektronisk form?
Utvidga sedan detta till en förteckning över politiska bloggar i hela världen, där tusentals personer i olika länder likt du och jag ofrivilligt har lämnat våra bidrag, så har vi en situation liknande den tidningarna befinner sig i med Google.
Personligen anser jag att de närstående rättigheterna är grovt överskattade ur kulturell synvinkel, och att de borde lyftas ur upphovsrättslagen eller rentav avskaffas helt. I den mån det finns ett behov av på automatisk väg framställda databaser, ljudupptagningar och videofilmer, så kommer människor att betala (eller vada i reklam) för att få tillgång till dem, oavsett hur det rättsliga skyddet för dem ser ut. Och om ingen vill betala, så finns det ingen poäng med att försöka sälja det.
Om någon inte vill bli indexerad av sökmotorer finns det redan standardiserade sätt att säga det på:
http://en.wikipedia.org/wiki/Meta_element#The_robots_attribute
http://en.wikipedia.org/wiki/Robots_exclusion_standard
Kan någon förklara för mej vad det överhuvudtaget finns att bråka om?
Ett av dom stora problemen med google och dess indexering och dom flesta sökmotorer är att dom indexerar godtycklig och oftas käpprätt åt helvete. Den som sökmotorotpimerar bäst kommer högst upp och inte det företag som är mest lämpligt.
Men det är svårt att avgöra om det är volvo.se volvo.com eller aftonbladets senaste artikel om volvo som ska komma upp när jag söker på volvo.
Det är snarare en irretation av att google censurerar internet och gör det omöjligt för vissa aktörer att synas och inte som gör att tidninarna vill stoppa googles snyltande.
Piratebay indexerar senast först, sen har dom en topplista, söker du på en torrent får du upp en av flera torrents och det spelar ingen roll vilken torrent du tar eftersom dom samarbetar.
Google ska inte styra informationen på nätet därav bör google begränsas.
Det finns en jättebra dokumentär svt visade för en-två år sedan som tar upp detta problem, kommer dock inte ihåg vad den hette.
shhh... berätta inget för dem... men de kan faktiskt styra det själva med hjälp av robots.txt... vips... inga sökmotorer, inga läsare och inga snyltare som läser deras artiklar gratis... winwin och gjort på tre minuter ;)
De är ju förstås helt fria att inte lägga upp saker på den öppna webben, och då kommer det inte heller att fastna i cachar, sökmotorer osv. Men! Det roliga i kråksången är ju att det dessutom redan är så att alla sökmotorer inklusive Google frivilligt stödjer standarden robots.txt. Så man kan redan idag bestämma exkat vilka sidor som ska lagras i vilka sökmotorer! Det tycks dock inte duga för Bonnier m.fl. som vill ha trafiken men inte ... öh, nej, jag vet faktiskt inte vad de vill.
@Anders Andersson: Det där var intressant. Alla högerbloggar i en grupp, och alla vänsterbloggar i en annan grupp, kan ju inte jämställas med gruppen alla fördelningspolitiska bloggar, tycker jag.
Å andra sidan vill jag minnas att Europakommissionen redan vid utredningen av databasdirektivet kom fram till att det förhindrar skapandet av nya databaser, men ändå valde att låta bli att ändra.
Vet du vad doktrinen säger om databasdirektivet och dess svenska tillämpning? Jag har medvetet hållit mig undan från upphovsrättsdelen av mitt enorma referensverk (<3) hittills (tack oophase!!).
@Stefan: Det där är också ett intressant problem. Jag förstår problemet, samtidigt som jag tror att mycket skulle kunna lösas av att man inför sökoptimering som ämne i skolan för att underlätta för framtida medborgare att hitta information via sökmotorer.
@Mikael Nilsson: Vad jag menar är naturligtvis att EU inte med lagstiftning ska lägga sig i en dispyt mellan två olika företag inom informationsbranschen. Det enda jag kan se att det här uppropet resulterar i är ett yttrande från kommissionen riktat mot google om att det vore bra ifall de tänkte på hur de indexerade. Och yttrande är i princip den svagaste formen av dokument kommissionen kan släppa ifrån sig. Det är inte förpliktigande alls.
Alla nät-tidningar behöver indexering. Utan indexering finns de inte. Det här utspelet är galet bortom allt förstånd. Det enda jag kan sluta mig till är att det är sista skriket innan total utrotning.
Det vore extremt olyckligt om upphovsrätten på något märkligt sätt skulle förlängas till att gälla referenser till nyheter. Ett sådant system skulle kollapsa world wide web. Det vore ett brott mot mänskligheten... var är fungerande antiterrorlagar när man behöver dem?!
Nu menar inte jag att unionen av två eller flera kataloger skulle vara detsamma som katalogerna var för sig, utan att unionen av dem är ett derivat av delkatalogerna, som vi får antas ha lagt ned både tid och pengar på att skapa (lagarna är alltså skrivna för en ekonomi där bearbetning av information antas förbruka fysiska resurser).
Om vi två då var för sig har hoppats att med förtjänst kunna sälja exemplar av eller åtkomst till katalogerna "vänsterbloggar" respektive "högerbloggar", men Google tillhandahåller en sammanställning av de båda som därefter gör våra bidrag överflödiga (eftersom människor vill kunna söka efter bloggar utan att nödvändigtvis veta i vilken delkatalog de finns), då får vi se oss snuvade på den förtjänsten. En del av incentivet att skapa delkatalogerna antas därmed ha försvunnit.
Vad menar du med att Europakommissionen "valde att låta bli att ändra"? Förutsåg man den här tillämpningen av databasrätten (om det nu är den som tillämpas; jag har inte följt tidningarnas krav gentemot Google så noga)?
Jag har inte heller studerat vad som skrivs om databasdirektivet, men såvitt jag kan bedöma föranledde det ganska små ändringar i den svenska upphovsrättslagen, tack vare att katalogskyddet redan var etablerat hos oss. Likväl är ändringarna knappast prövade i domstol, och en diskutabel sak är att databaser gavs samma skydd mot kopiering för enskilt bruk (numera privat bruk) som förut bara byggnadsverk och datorprogram hade, alltså att man inte får kopiera dem alls (ens till familjemedlemmar). Det är ett ganska drastiskt förbud, om man betänker att i princip varenda tabell i elektroniskt format (exempelvis en webbsida med statistiska uppgifter om Sveriges kommuner) är en "databas" i lagens mening.
Jag minns att någon brännvinsadvokat i fackpressen (jag tror det var Datormagazin) hävdade att även privat kopiering av musik-CD förbjöds med denna ändring, eftersom en musik-CD normalt innehåller flera olika musikstycken i digitalt format, och skivan därmed skulle anses innehålla en "databas" eller en digital sammanställning av musik. Jag tror dock inte att denna lagtolkning har vunnit gehör hos vare sig lagstiftare eller domstolar, om den ens någonsin har prövats.
Vad gäller robots.txt hävdar jag att Google har åsidosatt dess ursprungliga syfte (att undvika att robotar ockuperar innehållsrika servrar på bekostnad av vanliga användare) och lagt till regler relaterade till sekretess och upphovsrätt. Att tidningsföretagen inte nöjer sig med denna möjlighet förstår jag, eftersom reglerna är dikterade av Google och därmed också frivilliga. Jag kan konstruera en sökrobot som följer helt andra regler, låt oss säga en magisk sifferkod i filen robotar.txt (som ingen använder idag) och hänvisa tidningarna till det alternativet om de vill undvika att bli indexerade av mig. Att enbart förbjuda Google att indexera löser ingenting på längre sikt; då dyker det bara upp nya aktörer under nya namn.
anders andersson: nja, även yahoo och msn ställer sig bakom robots-standarden. Men visst, det går ju självklart att hitta på egna regler till en egen sökmotor...
Jag undrar varför tidningarna som inte vill indexeras hos sökmotorer helt enkelt inte unvänder robots.txt-standarden (som beskrivits i tidigare inlägg) för att se till att de inte indexeras. Det behövs alltså ingen lagstiftning för att själva förhindra att de indexeras.
Kan det vara så att de - i själva verket - inte är rädda för att de själva indexeras - utan snarare vill bibehålla någon slags kontroll över nyhetsmarknaden genom att samtidigt förbjuda att *andra* nyhets-siter indexeras?
Även om man kan få in pengar på att ta betalt för att t ex google skulle få indexera skulle de då gjort det? tveksamt.. och då skulle ju inte jag hitta till t ex aftonbladet för det är inte en adress jag strävar efter att finna utan artiklar i ett ämne.. återigen återkommer fildelningsproblematiken.. varför vill inte tidningarna att jag ska läsa deras artiklar?
"Det finns någon form av moraliskt imperativ som rättfärdigar att de som förespråkar gamla tiders upphovsrätter ständigt drar upp antingen påstådda förlorade inkomster (rätt till frukten av sitt arbete, även om det är sinnligt), samt rätten att själv kunna kontrollera distributionskanalerna för ett verk (på samma sätt som man har rätt att välja vem man säljer sin stol till eller genom vilken typ av återförsäljare)."
Duh. Rätten till frukten av sitt arbete är en negativ rättighet, det vill säga ingen får förneka dig frukten av ditt arbete. Vid kopiering förnekas dig dock inte frukten av ditt arbete; du kan nyttja det exakt lika bra som innan kopian gjordes. Vad gäller stolen är en bättre liknelse att en stolsdesigner skulle få bestämma över alla kopior av stolen hen säljer - helt absurt, förstås.
Idag är det Google m fl som indexerar men inget hindrar privatpersoner att indexera tidningar och sortera informationen på samma sätt som Google News, det krävs varken stor bandbredd eller mycket datorkraft. (Sker det med ett öppet program kan man dessutom anta att många modifierar för att ignorera robots-filer och filtrera bort reklam.)
Vad ska tidningar sedan göra? Förbjuda datoriserad läsning? Captchas på varje sida? Prenumeration & lösenord?
Det senare går men förutsätter att alla tidningar gör så annars blir tidningen bara ignorerad (som Aftonbladets plus-artiklar).
Hade WAN tänkt vidare hade de aldrig föreslagit dumheterna. Men om man betänker RIAAs & IFPIs dumheter kan man anta att förslaget kommer att gå långt.
Alla är tydligen inte helt med på vad bråket handlar om, det är alltså Google News indexering av artiklarna och inte vanliga Google söken som det bråkas om. Google News visar en kort ingress för artikeln och en djuplänk till den samma.
Problemet, ur tidningarnas perspektiv är alltså att besökarna bara läser enskilda artiklar och inte klickar runt på massa blajsidor innan artikeln. Så med färre klicka får tidningarna mindre inkomster. Risken är också stor att trogna besökare hittar nya tidningar, istället för att klicka på ett bokmärke i browsern till DN.se och läsa alla artiklar där, använder man Google News eller någon annan aggregator och hittar artiklar från alla möjliga tidningar.
robots.txt kan som flera redan sagt användas för att blockera sidor men det löser inte tidningarnas problem med "förlorade" klick. Tänk på att de flesta tidningar fungerar som portaler och har bra mycket mer än artiklar. Om användaren inte exponeras för dessa andra saker typ genom en startsida så tappar man klick.
I denna fajt tror jag att det är tidningarna som får ändra sig. Tidningarna får ändra sitt format och både publicerar artiklar och teasers till andra saker på samma sida och hoppas att de får fler klick den vägen.
@Calandrella: Jag tror du missade poängen. Det moraliska incitamentet för en stark upphovsrättslig lagstiftning går att kontra med moraliska incitament att försvaga samma lagstiftning.
Poängen var snarare att i nästan alla fall man hör om skärpt upphovsrättslagstiftning, ligger det någon form av moraliskt imperativ bakom. Men det lagförslag som lagts av WAN och EPC verkar inte ha några moraliska övertoner alls.
Det borde betyda att det är svårare för samhället att acceptera frågan också. Tycker jag.
Förstår liksom inte varför en sån disskusion måste till? Om man inte vill att ex. google ska indexera sidan så är det enkelt att åtgärda ...
http://www.google.se/intl/sv/remove.html
Add new comment