Detta är en HTML-version av en bilaga till begäran om allmän handling 'Digital Services Act / Digital Markets Act'.


 
January 2021 
Digital Services Act 
Position paper  
 
Key messages 
 
● Schibsted welcomes the proposal and the o
  veral o
  bjective of c
  larifying a
  nd s
  trengthening 
the liability framework, especial y for very large platforms (VLOPs). 
● We agree that the Regulation should only apply to il egal c
  ontent, which i s d
  eemed i l egal 
under national law.  
● We w
  elcome t he p
  ossibility f or national judicial o
  r a
  dministrative authorities t o issue o
  rders 
to act against a specific item of il egal c
  ontent, b
  ased on n
  ational law. Such orders s
  hould 
include  a  stay-down  element and be extended to “equivalent or similar il egal content” to 
ensure the continued safety of online platform users. 
● Similarly  the  notice  and  action  mechanism  needs  to  be  strengthened  by  a  stay-down 
element. 
● Certain  aspects  of  the  proposal  would  benefit  from  further  consideration,  for  example 
balancing  the  obligations  placed  on  lower  risk  platforms  such  as  online  classified 
marketplaces. Classified marketplaces based o
  n consumer t o c
  onsumer t rading o
  r t rading 
between  micro,  smal   and  medium-sized  businesses  and  consumers  do  not present the 
same risk profile to users as social networks.  
● We  welcome  the  additional  transparency  and  reporting  requirements  for  very  large 
platforms; such requirements are vital for the safety of the online environment.  
 
Background 
 
Schibsted  is  a  family  of  digital  consumer  brands  based  in  the  Nordics  with  world-class 
Scandinavian media houses, l eading c
  lassified m
  arketplaces a
  nd t ech s
  tart-ups i n t he f ield of 
personal finance and col aborative economies.  
 
We  have  actively  contributed  to  the  discussion  leading  up  to  the  proposal  for  a  Digital 
Services Act by cal ing for a balanced regulation of platform liability that p
  rotects d
  emocracy 
against the worst effects of manipulation and hate, whilst ensuring that this is d
  one i n a
   way 
that does not unacceptably restrict freedom of expression.  
 
As  we also operate classified marketplaces that vary from consumer to consumer platforms 
sel ing  second-hand  goods  to  facilitate the trade in cars and other vehicles, real estate and 
job recruiting, we also contribute to the Digital Services Act proposal f rom t he p
  erspective of 
online  classified  marketplaces.  These  marketplaces  contribute  to  the  circular  economy  in 
Europe  through  the  second-hand  effect  of  sel ing  and  buying  used  goods  in  local 
communities.  



 
 
We  note  that  the  Commission's  proposal  on  clearer  liability  obligations  is  divided  into  four 
categories: al  intermediary services, hosting services, online p
  latforms a
  nd v
  ery l arge o
  nline 
platforms. We agree with level ing the liability obligations based on level of activity a
  nd s
  ize, 
however,  we  see  that  there  are  certain  obligations that are more suited for social networks 
that  spread  user-generated  content  such  as  expressions,  pictures,  videos  etc,  than  online 
marketplaces that predominantly offer products and services. We therefore comment on the 
proposal  from  these  two  perspectives;  obligations  that  are  especial y  important  for  social 
networks and that need some additional elements in order to i ncrease the s
  afety o
  f u
  sers o
  n 
these  networks,  and  obligations  that  wil   apply  to  our  classifieds  marketplaces  and  what 
chal enges these obligations wil  have for our businesses. 
 
We  also  need  to  ensure  that  the  Regulation  does  not  apply  to  online  publishers  that  are 
already regulated by national constitutions and other sector-specific regulations.  
 
Liability obligations for social networks 
 
We welcome the effort by the EU Commission to clarify and strengthen the liability o
  f o
  nline 
platforms and very large online platforms. We see that especial y very large social n
  etworks 
that  have  an  enormous  impact  on  our  society  and  democratic  discussion  are  not  doing 
enough  to  protect  their  users  from  il egal content. The networks contain a lot of il egal hate 
speech and other il egal content that can harm its users, but also the d
  emocratic i nstitutions 
in  our  countries. According to us, the current limited liability scheme has led to the fact that 
these n
  etworks only take limited m
  easures t o remove i l egal c
  ontent a
  nd d
  o s
  o b
  ased on t heir 
own terms and conditions, rather than on the l aw. T
  his l eads to f ragmented s
  ystems that a
  re 
unclear to the users and the fact that a lot o
  f i l egal content can c
  ontinue t o flourish o
  n these 
networks. 
 
It  is  also  important  to  note  that  social  networks  are  not  publishers.  They  do  not  have  a 
defined  editorial  role,  they  have no editor-in-chief, are not bound by media ethics rules and 
do  not  see  themselves  as  publishers.  However,  they  have  a  clear  and  active  role  in 
spreading  the  content  uploaded  by  their  users  and  cannot  therefore  be  regarded  as  mere 
conduits  of  content.  It  is  important  that  legislation  acknowledges  the  networks’  role  as 
spreaders of user-generated content, but without having any editorial responsibility linked t o 
that content.  
 
Removal of il egal content (Articles 8 and 14) 
 
We welcome the proposal in Article 8 to al ow national judicial a
  nd a
  dministrative a
  uthorities 
to issue national orders for intermediaries to act on il egal content. It is important that defining  



 
 
il egal content has a b
  asis i n n
  ational c
  riminal l aw, a
  s t hese l aws m
  ay d
  iffer b
  etween Member 
States that have different cultures and traditions. 
 
It  is also important that Member States revise national legislation to clarify the responsibility 
of  intermediaries  for  il egal  content  and  that  the  judiciary  have  the  tools  needed to compel 
social networks to take responsibility for and take d
  own i l egal c
  ontent. In 2
  020 in Sweden, a
   
key  market  for Schibsted, there were nearly 100 legal proceedings pursued on the grounds 
of  incitement  to  hatred  where  the individual posting content online has been found guilty of 
an il egal act. However, in none o
  f t he c
  ases has t he l iability o
  f t he s
  ocial n
  etwork distributing 
and amplifying the content been evaluated. Article 8 is a useful step to clarify this anomaly. 
 
We also support the notice and action mechanism in Article 14 and are of the o
  pinion that i t 
is important that social networks have clear flagging options f or u
  sers a
  nd t hat the networks, 
on the basis of the flagging, swiftly remove il egal content from the platform.  
 
To strengthen the safety of users ​national o
  rders must include t
  he p
  ossibility f
  or j udicial 
and administrative authorities t
  o require n
  ot only t
  he s
  pecific i tem o
  f i llegal c
  ontent b
  e 
removed  but  also  similar  or  equivalent  items  too.  Experience  from  Germany's  NetzDG 
suggests that those spreading i l egal content, s
  uch as i ncitement t o v
  iolence, take advantage 
of  the current notice and action system by posting the same content from different sources. 
According  to  the  current  e-Commerce  Directive,  the  networks  must  receive  notification  of 
each  individual  il egal  posting in order to intervene. This risks leaving a lot of il egal content 
on  the  platform  as  the  same  or  similar  content  may  be  spread  from  a  number  of  different 
addresses. The European Court o
  f J
  ustice has r
  uled​1 t hat the provision c
  an be i nterpreted s
  o 
that  notification  of  one  il egal  post  means  that  the  network  must  also  remove  other similar 
postings – i.e. staydown.  
 
We  propose  to  add  “similar  and  equivalent  content”  to  Article  8  to  strengthen  the 
provision  with  a  stay-down  element.  Similarly  Article  14  needs  to  be  complemented 
with a stay-down element in o

  rder to k
  eep users s
  afe a
  nd social n
  etworks f
  ree from a
  ll 
illegal content. 
 
Terms and conditions (Article 12) 
 
We  agree  with  the  proposal  that  intermediary  services  should  be  able  to  include  further 
restrictions  in  their  terms  and  conditions  (Article  12).  It  is  however  important  to  determine 
how intermediaries such as social networks can use their terms and conditions to the  
1 ​Glawischnig-Piesczek vs Facebook Ireland (C-18/18)  
 



 
 
possible detriment o
  f freedom of e
  xpression. Important safeguards are needed to ensure t hat 
social  networks  do  not  use  these  rules  to  alter  or  remove content that has been published 
under  the  editorial  control  of  a  content  provider  such  as  a  newspaper.  This  would  lead  to 
double scrutiny and could override the editorial decision by the publisher. 
 
Publishers  have  a  clear  editorial  responsibility  and  are  already  regulated  by law, often the 
national constitution. T
  hey a
  lso a
  dhere t o n
  ational p
  ress-ethical c
  odes. I f s
  ocial n
  etworks can 
override the decision by the editor-in-chief it could hamper the f ree p
  ress t o t he d
  etriment o
  f 
independent  journalism.  Diversity  of  opinions  and  scrutiny  by  the  media  is  important  for  a 
democractic society and must be preserved.  
 
We  therefore  call  for  an  exemption  of  editorial  content  from  a  platforms’  terms  and 
conditions as set out in Article 12. 
 
Online advertising transparency (article 24) 
 
Advertising is usual y t he m
  ain f inancial resource f or online s
  ervices. A
  dditional transparency 
for  online  advertising is of particular importance on social networks, but should not hamper 
the possibility for any online platform to f inance its services. I t is i mportant t o e
  nsure t hat t he 
requirement of enclosing the main parameters for p
  rofiling i n A
  rticle 2
  4 (
  c) d
  oes n
  ot i nflict o
  n 
users’ privacy. 
 
In  particular  it  is  important  to  ensure  that  this  article  does not apply to online news 
publishers that are totally dependent on online advertising a

  nd any a
  dditional b
  urden 
may have a negative impact on the possibility to attract advertisers. 
 
Liability obligations for online marketplaces 
 
There  are  different  kinds  of  online  marketplaces,  such  as  online  retail  platforms  that  are 
responsible  for  the  presentation  and  spreading  of  the  products  and  services  on  offer  and 
classified  marketplaces  that  al ow  users  to  draft  the  advertisement  of  the  products  and 
services they offer.  
 
Schibsted´s  classified  marketplaces  are  al   based  in  the  EU  and  fol ow  relevant  consumer 
law,  product  safety,  taxation  and  intel ectual property laws as applicable. Our marketplaces 
al ow  consumers  to  sel   used  goods  to  each  other  and  enable  smal   and  micro-sized 
companies,  often  one-person  companies  to  reach  their customers through these platforms. 
Classified  marketplaces  are  also  used  by  private  and  professional  car  dealers to sel  used 
cars,  by  job  recruiters  to  find  suitable  candidates  and  by  real  estate  operators  to  list  their 
properties  on  these  platforms.  These  platforms  contribute  to  the  circular  economy  by 
facilitating circular consumption, which through its second-hand effect l owers Co2 e
  missions 
and use of water and decreases over-production. Classified marketplaces also have a strong  



 
 
local  foothold,  al owing consumers in local communities to interact by sel ing used goods to 
each other. 
 
Al   our  classified  marketplaces  apply  the  current  e-Commerce  Directive  and  its  notice  and 
takedown regime, which we believe is stil  valid and works wel  for our platforms. As t rusted 
platforms, they have al t aken proactive, v
  oluntary measures a
  gainst il egal a
  ctivities, such a
  s 
pre-moderation  of  advertisements  and  outright  prohibitions  from  sel ing  certain  goods  that 
can be deemed il egal etc. Al  of this has been done as a self-regulatory measure to p
  rotect 
the users of our services.  
 
Although  we  already  take  responsibility  for  the  content  being  sold  through  our  platforms, 
some  of  the  obligations  in  the  proposed  Regulation  wil   be  quite  onerous  on  our  business 
model  and  could  add  additional  costs  and  require  resources  that  may  be  difficult  for  our 
classified marketplaces to s
  ustain. This kind o
  f additional b
  urden c
  ould hamper t he p
  ossibility 
of  classified  marketplaces  to  grow and continue to contribute to the circular consumption in 
our markets. 
 
Our  classified  marketplaces  have  a  notice-and-action  system  as  an  integrated  part  of  the 
marketplace. Users may use the report-function which is available next t o each classified a
  d 
that  is  published  on  our  platform  to  report  il egal  activities.  Once  we  get  a  report  of  il egal 
activity, our Customer Security team makes a review of the report and a reply is sent to t he 
reporting user.  
 
Our marketplaces also have dedicated channels through which authorities may r
  eport il egal 
activities.  We  cooperate  closely  with  national  authorities  such  as  the  police,  the  tax 
authorities  and  customs  and  provide  these  authorities  with  information  upon  request 
regarding users who are under investigation for u
  nlawful activities c
  onducted w
  ith t he h
  elp o
  f 
our platform. We a
  lso c
  ooperate w
  ith t rusted o
  rganisations s
  uch as o
  rganisations with a
  nimal 
or  brand  protection  programs.  These  organisations  may  report  il egal  activities  to  our 
marketplaces,  for example the sale of counterfeit goods, and such reports are channeled to 
and  handled  swiftly  by  our  Customer  Security  team  in  dialogue  with  the  reporting 
organisations.  
 
Statement of reasons (Article 15) 
 
We  agree  with  the  transparency  obligation  to  inform  users  when  their  content  has  been 
removed and provide a s
  tatement o
  f r
  easons for t his a
  ction. T
  here are however, certain r
  isks 
linked  to  the  obligations  in  the  Article  for  classified  marketplaces,  such  as  disclosing 
business  critical  information  regarding  the  process  by which we keep the marketplace free 
from il egal/fraudulent content.   
 
 



 
 
If a
  n a
  d is r
  emoved or stopped because i t i s r
  egarded a
  s fraudulent, t he u
  ser b
  ehind the ad i s 
not  given  notice  before  the  ad  is  taken  down.  The  reason  for  this  is that we want to avoid 
giving the fraudulent user a heads up, and hence give him/her an opportunity to c
  ontinue or 
even  conclude  the  fraud  with  a  third  party  on  e-mail  or  on  phone, and thereby moving the 
fraud out of our platform´s control. 
 
It is important to see that there could be cases where a
  d
  etailed s
  tatement of r
  easons c
  ould 
actual y  be  beneficial  to  the  fraudulent  users  and  it  should  be  emphasized  that  such  a 
statement should not be required to be issued before the ad is taken down. 
 
We  also  think  that  the  obligation  in  Article  15.4  on  publishing  the  decision  in  a 
publicly  accessible  database  managed  by  the  Commission  is  disproportionate  and 
needs to be looked at from a risk assessment perspective. 
 
Traceability of traders (Article 22)  
 
We  understand  the  reason  behind  this  requirement  and  agree  that  it  is  important  for 
especial y  large  retail  platforms  to  be  transparent  about  the  traders  on  their  platforms. 
However,  this  obligation  risks  an  overly  prescriptive  “one-size-fits-al ”  approach  that  poses 
constraints for classified marketplaces that enable trade of used goods b
  etween consumers 
and al ow smal  professional sel ers to reach their customers.  
 
Firstly,  it  is  important  to  ensure  that  the  obligation  does  not  apply  to  private  sel ers  as  it 
would be far too onerous for our marketplaces to col ect and display al  the required details 
about al  the individuals sel ing used goods on the platforms. 
 
Secondly, our classified marketplaces are valued among smal er professional s
  el ers for t he 
ease  of  use  of  the  platform.  Al   additional  administrative burdens and technical chal enges 
that the requirements in Article 22 pose, risk alienating sel ers from our marketplaces.  
 
In order to decrease the administrative burden, we propose to keep t
  he r
  equirements 
limited to the necessary information n
  eeded i n order t
  o know y
  our business customer 
and  to  what  is  absolutely  necessary  to  identify  the  trader.  ​For  our  classified 
marketplaces it is reasonable to ask for the fol owing information: 
 
a) Name, address, telephone number and email address 
e) Trade registration number 
f) self-certification on products and services complying with Union law. 
 
The  other  requirements,  such  as  bank  account  number,  are  not  information  our 
marketplaces  can  easily  col ect  from  traders  and  it  is  not  information  of  use  to  the 
marketplace.  
 
In  addition  we are of the opinion that Article 22.6 should set a minimum requirement 
for what information is necessary to display and how it is displayed.  
 



 
 
Reporting requirements (Article 23) 
  
We are of the opinion that the reporting requirements in this article a
  re f ar-reaching a
  nd w
  il  
be  hard  for  our  classified  marketplaces  to  adhere  to.  We  caution  against  some  of  these 
obligations  such  as  the  requirement  to  report  the  amount  of  suspensions  and  use  of 
automatic means for content moderation as such information is business critical and should 
not be required to be exposed.   
 
We  call  on  a  risk  assessment  to  be  made  in  this  regard  and  are  of  the opinion that 
such reporting requirements should only be obligatory for very large platforms.