بررسی محصولات

دادگاه عالی می گوید قوانین ایالتی در مورد تعدیل رسانه های اجتماعی بسیار مبهم هستند


دادگاه عالی ایالات متحده دو پرونده کلیدی را به دادگاه‌های پایین‌تر ارسال می‌کند که مربوط به نحوه تعدیل محتوا توسط شرکت‌های رسانه‌های اجتماعی در پلتفرم‌های خود و نحوه واکنش دولت‌ها به آن است.

این احکام پرونده ها را به دادگاه های تگزاس و فلوریدا ارسال می کند، جایی که قوانین ایالتی در سال 2021 به دنبال اعمال محدودیت هایی بر نحوه تصمیم گیری پلتفرم های رسانه های اجتماعی مانند فیس بوک، X و یوتیوب برای حذف یا توصیه به کاربران بودند.

قاضی النا کاگان در تصمیم اکثریت نوشت: «نه حوزه یازدهم و نه حوزه پنجم تجزیه و تحلیل مناسبی از چالش‌های صورت به اصلاحیه اول انجام ندادند.

نظرات مخالفی وجود نداشت، فقط نظراتی که تا حدی با تصمیم دادگاه و تا حدی موافق با احکام اولیه در سراسر تصمیم 96 صفحه ای بود.

هیچ کدام از این قوانین تا زمانی که در حال بررسی هستند در حال اجرا نیستند.

دادستان های کل تگزاس و فلوریدا مدعی شدند که قوانین این ایالت ها برای مبارزه با ادعای “سانسور فناوری بزرگ” و تبعیض ادعایی عقاید، به ویژه علیه دیدگاه های محافظه کار، پس از قیام 6 ژانویه ایجاد شده است. گروه‌های تجاری اینترنتی به نمایندگی از شرکت‌هایی مانند گوگل و متا شکایت کردند و ادعا کردند که قوانین پیشنهادی متمم اول و حق پلتفرم‌ها برای حذف محتوای مضر را نقض می‌کند.

دیوان عالی در ماه فوریه به استدلال های شفاهی در هر دو پرونده رسیدگی کرد. قاضی ها نوشتند که «هیچ کس توجه زیادی نکرده است» به اینکه چگونه قوانین می توانند به طور بالقوه متمم اول را نقض کنند. دادگاه گفت که ایالت ها و گروه های تجاری بر این موضوع تمرکز کرده اند که چگونه این قانون بر نحوه تعدیل محتوا توسط پلتفرم های رسانه های اجتماعی، مانند نحوه سازماندهی صفحه اصلی یوتیوب، تأثیر می گذارد، اما نه اینکه چگونه می تواند به طور بالقوه بر سایر خدمات، مانند پیام رسانی مستقیم تأثیر بگذارد.

دیوان عالی گفت که دامنه کامل قوانین باید قبل از رسیدگی به نگرانی های متمم اول تعیین شود. در ارسال پرونده‌ها به دادگاه‌های پایین‌تر برای بررسی، قضات شامل اصول راهنمائی خاصی برای آن دادگاه‌ها می‌شدند تا در نظر بگیرند.

در اوایل این جلسه، دادگاه عالی حکم داد که دولت بایدن می‌تواند به تماس با شرکت‌های رسانه‌های اجتماعی ادامه دهد و از آنها بخواهد که پست‌هایی را که اطلاعات نادرست می‌دانند حذف کنند، همانطور که در مورد موضوعاتی مانند COVID-19 و انتخابات 2020 نیز انجام داده است ایالت‌ها و کاربران رسانه‌های اجتماعی که شکایت کرده‌اند، حق شکایت و یا حق شکایت در عدالت را نداشتند.

این حرکت در حالی صورت می‌گیرد که پلتفرم‌های رسانه‌های اجتماعی با چالش‌های فزاینده دولتی مواجه هستند. در ماه آوریل، پرزیدنت بایدن قانونی را امضا کرد که هدف از آن فروش اجباری TikTok توسط شرکت مادر چینی ByteDance بود، اقدامی که بسیاری از کاربران نگرانند که ممکن است به ممنوعیت TikTok در ایالات متحده منجر شود. در ماه ژوئن، جراح آمریکایی، ژنرال ویوک مورتی، مقاله‌ای در نیویورک تایمز نوشت و خواستار ارسال برچسب‌های هشداردهنده در رسانه‌های اجتماعی شد، مانند برچسب‌های سیگار و الکل، در مورد اثرات مضر بالقوه مضر شبکه‌های اجتماعی بر کودکان و نوجوانان

احکام دیوان عالی در رابطه با پلتفرم‌های رسانه‌های اجتماعی منجر به تغییر فوری در نحوه استفاده از حساب‌هایتان نمی‌شود، اما احتمالاً در این فصل انتخابات در لفاظی‌های سیاسی ظاهر می‌شوند.

به این نگاه کن: ایالات متحده در برابر TikTok: بعد چه اتفاقی می افتد

پلتفرم های رسانه های اجتماعی چگونه محتوا را تعدیل می کنند؟

تعدیل محتوا در پلتفرم های رسانه های اجتماعی فرآیندی پیچیده و گاه مبهم است. در اینجا نحوه عملکرد آن به طور کلی است.

در سمت کاربر، در ابتدایی ترین سطح، پلتفرم های رسانه های اجتماعی دارای مجموعه ای از دستورالعمل های جامعه هستند که همه کاربران باید از آنها پیروی کنند. این دستورالعمل‌ها مشخص می‌کنند که چه محتوا و رفتار قابل قبولی در پلتفرم وجود دارد یا نه. قبل از اینکه بتوانید حساب کاربری ایجاد کنید، باید آنها را بپذیرید.

به عنوان مثال، اکثر پلتفرم‌ها قوانینی علیه اشتراک‌گذاری مطالب و پست‌های ناخواسته با محتوای توهین‌آمیز یا صریح دارند. اگر پلتفرمی تصمیم بگیرد که محتوا این قوانین را نقض می کند، بسته به شدت و موقعیت ممکن است آن را حذف یا حساب را غیرفعال کند. اما یک مشکل مقیاس وجود دارد: با میلیون‌ها پست در روز، پرچم‌گذاری و گرفتن هر پستی که به طور بالقوه دستورالعمل‌های انجمن و شرایط خدمات را نقض می‌کند برای پلتفرم‌ها دشوار است. به همین دلیل است که پلتفرم‌ها همیشه شما را تشویق می‌کنند تا فعالیت‌ها یا حساب‌های مشکوک را گزارش و مسدود کنید.

برخی از پلتفرم‌ها دارای دستورالعمل‌های اضافی هستند که مواردی را که می‌توان در صفحات کاوش، جستجو یا برای شما تبلیغ کرد، مشخص می‌کند. به عنوان مثال، TikTok اخیراً دستورالعمل‌های خود را به‌روزرسانی کرده است تا محتوای پرچم‌گذاری شده به عنوان ترویج اختلالات خوردن و تئوری‌های توطئه نتواند در فیدهای For You ظاهر شود. سازندگانی که از پست‌های خود کسب درآمد می‌کنند یا عموماً در صندوق‌های خلاقانه شرکت می‌کنند، باید دستورالعمل‌ها و معیارهای بیشتری را رعایت کنند.

در سمت پلتفرم، شرکت‌ها از الگوریتم‌هایی برای اولویت‌بندی محتوا در فید شما استفاده می‌کنند و پست‌هایی را به شما ارائه می‌کنند که فکر می‌کنند دوست خواهید داشت یا جذاب می‌شوید. بنابراین اگر مجموعه ای از ویدیوهای قلاب بافی یوتیوب را دوست دارید، این پلتفرم به احتمال زیاد ویدیوهای بافتنی را به شما توصیه می کند. همچنین احتمالاً تبلیغات بیشتری را برای آن علاقه دریافت خواهید کرد. پلتفرم‌ها معمولاً در مورد ویژگی‌های نحوه عملکرد این الگوریتم‌ها کاملاً دقیق هستند، اما سعی می‌کنند سازندگان و تبلیغ‌کنندگان را در جهت درست راهنمایی کنند.

نکته مهم دیگری که هنگام درک نحوه عملکرد تعدیل محتوا در رسانه های اجتماعی باید مورد توجه قرار گیرد این است که تصمیمات دادگاه های قبلی ثابت کرده است که شرکت های رسانه های اجتماعی از نظر قانونی مسئولیتی در قبال محتوای ارسال شده توسط کاربران در سایت های خود ندارند، زیرا آنها “پلتفرم” هستند و نه “ناشر”. این بدان معنی است که اگر کسی چیزی توهین آمیز یا نامناسب در یک گروه فیس بوک پست کند، احتمالاً در شکایت از متا موفق نخواهید بود.




Source link

نوشته های مشابه

دکمه بازگشت به بالا