Суд в США возобновил иск против TikTok, связанный со смертью 10-летней девочки

Сообщение об ошибке

  • Notice: Undefined index: taxonomy_term в функции similarterms_taxonomy_node_get_terms() (строка 518 в файле /hermes/bosnacweb02/bosnacweb02aj/b1224/ipw.therussianamerica/public_html/russian_newscenter/sites/all/modules/similarterms/similarterms.module).
  • Notice: Undefined offset: 0 в функции similarterms_list() (строка 221 в файле /hermes/bosnacweb02/bosnacweb02aj/b1224/ipw.therussianamerica/public_html/russian_newscenter/sites/all/modules/similarterms/similarterms.module).
  • Notice: Undefined offset: 1 в функции similarterms_list() (строка 222 в файле /hermes/bosnacweb02/bosnacweb02aj/b1224/ipw.therussianamerica/public_html/russian_newscenter/sites/all/modules/similarterms/similarterms.module).

Социальные сети отвечают за контент, если направляют этот контент: они тем самым высказывают суждение.

Апелляционный суд решил, что социальная сеть несет ответственность за продвижение потенциально вредоносного контента на основе собственных алгоритмов.

Американский апелляционный суд возобновил дело против TikTok, инициированное матерью десятилетней девочки, которая умерла после участия в вирусном челлендже Blackout Challenge, в котором пользователям предлагалось задушить себя до потери сознания.

Федеральный закон обычно защищает интернет-компании от исков по поводу контента, размещенного пользователями. Однако окружной апелляционный суд в Филадельфии постановил, что закон не запрещает матери Найлы Андерсон подать иск против TikTok в связи с тем, что, по мнению суда, алгоритмы социальной сети побудили ее дочь принять вызов.

Окружной судья Пэтти Шварц указала, что статья 230 Закона о пристойности коммуникаций 1996 года ограждает социальные сети только от ответственности за информацию, размещаемую пользователями, но не за рекомендации, которые выдает TikTok на основе собственных алгоритмов.

Она признала, что это решение является отступлением от предыдущих постановлений ее суда и других судов, согласно которым статья 230 освобождает онлайн-платформы от ответственности за непредотвращение передачи пользователями вредоносных сообщений.

Однако, по ее словам, эти доводы перестали действовать после июльского решения Верховного суда США. В прошлом месяце Верховный суд постановил, что алгоритмы платформы отражают «редакционные суждения» о «компиляции высказываний третьих лиц, которые она хочет представить в том виде, в котором [платформе] угодно». Шварц заявила, что по этой логике отбор и организация контента с использованием алгоритмов являются высказываниями самой компании, а они не попадают под защиту статьи 230.

«TikTok принимает решения в отношении контента, который рекомендуется и продвигается конкретным пользователям, и таким образом совершает высказывания от своего имени», – написала она.

Шварц отменила решение суда нижестоящей инстанции, отклонившего иск Тавайны Андерсон к TikTok и материнской компании социальной сети – китайской компании ByteDance. Андерсон подала иск после того, как ее дочь Найла умерла в 2021 году, приняв участие в Blackout Challenge, с помощью ремня от сумочки, висевшей в шкафу матери.

«Большие технологические компании лишились лазейки, позволявшей уходить от ответственности», – заявил адвокат матери Джеффри Гудман.

Rate this article: 
No votes yet