ABD Yüksek Mahkemesi bugün Google’ı, Adalet Bakanlığı’nı ve 2015 yılında Paris’te teröristler tarafından öldürülen 23 yaşındaki bir kadının ailesini temsil eden avukatların sözlü savunmalarını dinledi. Gonzalez – Google davası, ABD’de çok önemli bir yasal dönüm noktasını temsil ediyor. ABD hukuk sisteminin Google gibi büyük teknoloji platformlarını barındırdıkları içerikten nasıl sorumlu tuttuğu.

Nohemi Gonzalez’in ailesi, Google’ın ABD Dışişleri Bakanlığı’nın terör örgütü olarak tanımladığı İslam Devleti grubu için bir üye toplama platformu işlevi gördüğünü savunuyor. Aile, Google’ın YouTube’da İslam Devleti ile ilgili videolar önererek terörist gruplara yardım sağlamayı yasaklayan ABD yasalarını ihlal ettiğini öne sürüyor.

Ancak Google, bu tür davalardan yasal olarak muaf olduğunu savundu. İletişim Ahlakı Yasası’nın 230. Bölümüinternet tabanlı şirketlerin kullanıcı tarafından oluşturulan içerik için sorumluluk almalarını engeller.

Duruşma çekişmeli geçti ve toplanan yargıçlar her bir tarafın avukatlarını soru yağmuruna tuttu. Google’ın avukatı Lisa Blatt, içerik için algoritmik olarak oluşturulmuş önerilerin Bölüm 230 kapsamında olduğunu ve bu yasanın sağladığı yasal dokunulmazlığın modern internetin temel yapı taşı olduğunu hararetle savundu. Blatt, Bölüm 230 olmadan, Yelp’ten Zillow’a ve Amazon’a kadar internetteki içerik odaklı her platformun barındırdıkları her içerik parçasından sorumlu olacağını söyledi.

Google, sorumluluk korumalarının ortadan kaldırılmasının interneti tehdit ettiğini söylüyor

“Üçüncü taraf bağlamını zımnen önermekle yükümlü web sitelerini ifşa etmek, metne meydan okur. [of Section 230] ve bugünün internetini tehdit ediyor” dedi.

Google savunmasının itici gücü, Microsoft, Twitter ve Facebook ana şirketi Meta dahil olmak üzere büyük teknoloji şirketleri tarafından Yüksek Mahkemeye sunulan çok sayıda brifing tarafından tekrarlandı ve desteklendi.

Gonzalez ailesinin avukatı, Washington Üniversitesi hukuk profesörü Eric Schnapper, YouTube gibi platformlar tarafından sağlanan önerilerin esasen editoryal seçimler olduğunu savundu – bu platformlar, zararlı veya iftira niteliğinde içeriği ortaya çıkarmayacak veya önermeyecek şekilde tasarlanabilirdi, ancak değildi. Bu nedenle, YouTube’un bu zararlı içeriği önermesine izin verme kararı, platform sağlayıcılarının bilinçli olarak verdiği bir karardır ve bu, yayınlarından sorumlu tutulmaları gerektiği anlamına gelir.

“Bazı durumlarda, üçüncü taraf içeriğinin düzenlenme veya sunulma biçimi, sanığın kendisinden başka bilgiler aktarabilir” dedi ve tavsiyelerde bulunma yeteneğinin mutlaka tarafsız olmadığının altını çizdi.

Twitter sorumluluk davası da Yargıtay’a gidiyor

Gonzalez davasında ve yarın bir duruşma yapılması planlanan Twitter v. Taamneh ile yakından ilgili meselede riskler yüksek. Büyük teknoloji şirketlerinin tanıttıkları veya tavsiye ettikleri içerikten otomatik, algoritmik bir şekilde bile sorumlu olduğuna dair herhangi bir bulgu, teknoloji devlerinin çalışma biçiminde büyük bir deniz değişikliğini temsil edebilir.

Taamneh davasında, bir terör saldırısında öldürülen bir Ürdün vatandaşının ailesinin açtığı dava, Twitter’ın İslam Devleti grubunun bu platformu kullanmasını yasaklama konusunda yeterince agresif olmadığını iddia ediyor. Gonzalez’e benzer bir “yardım ve yataklık” meselesi.

Kullanıcı tarafından oluşturulan içerik için sorumluluğun, internet tabanlı şirketlerin büyük ölçüde artan gözetiminden ve daha ağır kısıtlamalarından, çalışması için kullanıcı tarafından oluşturulan içeriğe güvenen şirketler için iş modelini basitçe geçersiz kılmaya kadar herhangi bir sayıda takip etkisi olabilir.

Yargıçlar, Bölüm 230’deki herhangi bir değişikliğin büyük teknolojiye karşı yeni bir dava dalgası yaratabileceğinden endişeli görünüyordu.

“Gerçekten ne zaman içeriğiniz olsa, [would] ayrıca davaya tabi olabilecek bu sunum ve önceliklendirme seçeneklerine de sahip, ”dedi Yargıç Yardımcısı Elena Kagan.

Mahkemenin görev süresi Haziran ayında sona erene kadar bir karar verilmesi bekleniyor.

Telif hakkı © 2023 IDG Communications, Inc.



genel-13