دادگاه عالی می گوید قوانین ایالتی در مورد تعدیل رسانه های اجتماعی بسیار مبهم هستند
دادگاه عالی ایالات متحده دو پرونده کلیدی را به دادگاههای پایینتر ارسال میکند که مربوط به نحوه تعدیل محتوا توسط شرکتهای رسانههای اجتماعی در پلتفرمهای خود و نحوه واکنش دولتها به آن است.
این احکام پرونده ها را به دادگاه های تگزاس و فلوریدا ارسال می کند، جایی که قوانین ایالتی در سال 2021 به دنبال اعمال محدودیت هایی بر نحوه تصمیم گیری پلتفرم های رسانه های اجتماعی مانند فیس بوک، X و یوتیوب برای حذف یا توصیه به کاربران بودند.
قاضی النا کاگان در تصمیم اکثریت نوشت: «نه حوزه یازدهم و نه حوزه پنجم تجزیه و تحلیل مناسبی از چالشهای صورت به اصلاحیه اول انجام ندادند.
نظرات مخالفی وجود نداشت، فقط نظراتی که تا حدی با تصمیم دادگاه و تا حدی موافق با احکام اولیه در سراسر تصمیم 96 صفحه ای بود.
هیچ کدام از این قوانین تا زمانی که در حال بررسی هستند در حال اجرا نیستند.
دادستان های کل تگزاس و فلوریدا مدعی شدند که قوانین این ایالت ها برای مبارزه با ادعای “سانسور فناوری بزرگ” و تبعیض ادعایی عقاید، به ویژه علیه دیدگاه های محافظه کار، پس از قیام 6 ژانویه ایجاد شده است. گروههای تجاری اینترنتی به نمایندگی از شرکتهایی مانند گوگل و متا شکایت کردند و ادعا کردند که قوانین پیشنهادی متمم اول و حق پلتفرمها برای حذف محتوای مضر را نقض میکند.
دیوان عالی در ماه فوریه به استدلال های شفاهی در هر دو پرونده رسیدگی کرد. قاضی ها نوشتند که «هیچ کس توجه زیادی نکرده است» به اینکه چگونه قوانین می توانند به طور بالقوه متمم اول را نقض کنند. دادگاه گفت که ایالت ها و گروه های تجاری بر این موضوع تمرکز کرده اند که چگونه این قانون بر نحوه تعدیل محتوا توسط پلتفرم های رسانه های اجتماعی، مانند نحوه سازماندهی صفحه اصلی یوتیوب، تأثیر می گذارد، اما نه اینکه چگونه می تواند به طور بالقوه بر سایر خدمات، مانند پیام رسانی مستقیم تأثیر بگذارد.
دیوان عالی گفت که دامنه کامل قوانین باید قبل از رسیدگی به نگرانی های متمم اول تعیین شود. در ارسال پروندهها به دادگاههای پایینتر برای بررسی، قضات شامل اصول راهنمائی خاصی برای آن دادگاهها میشدند تا در نظر بگیرند.
در اوایل این جلسه، دادگاه عالی حکم داد که دولت بایدن میتواند به تماس با شرکتهای رسانههای اجتماعی ادامه دهد و از آنها بخواهد که پستهایی را که اطلاعات نادرست میدانند حذف کنند، همانطور که در مورد موضوعاتی مانند COVID-19 و انتخابات 2020 نیز انجام داده است ایالتها و کاربران رسانههای اجتماعی که شکایت کردهاند، حق شکایت و یا حق شکایت در عدالت را نداشتند.
این حرکت در حالی صورت میگیرد که پلتفرمهای رسانههای اجتماعی با چالشهای فزاینده دولتی مواجه هستند. در ماه آوریل، پرزیدنت بایدن قانونی را امضا کرد که هدف از آن فروش اجباری TikTok توسط شرکت مادر چینی ByteDance بود، اقدامی که بسیاری از کاربران نگرانند که ممکن است به ممنوعیت TikTok در ایالات متحده منجر شود. در ماه ژوئن، جراح آمریکایی، ژنرال ویوک مورتی، مقالهای در نیویورک تایمز نوشت و خواستار ارسال برچسبهای هشداردهنده در رسانههای اجتماعی شد، مانند برچسبهای سیگار و الکل، در مورد اثرات مضر بالقوه مضر شبکههای اجتماعی بر کودکان و نوجوانان
احکام دیوان عالی در رابطه با پلتفرمهای رسانههای اجتماعی منجر به تغییر فوری در نحوه استفاده از حسابهایتان نمیشود، اما احتمالاً در این فصل انتخابات در لفاظیهای سیاسی ظاهر میشوند.
به این نگاه کن: ایالات متحده در برابر TikTok: بعد چه اتفاقی می افتد
پلتفرم های رسانه های اجتماعی چگونه محتوا را تعدیل می کنند؟
تعدیل محتوا در پلتفرم های رسانه های اجتماعی فرآیندی پیچیده و گاه مبهم است. در اینجا نحوه عملکرد آن به طور کلی است.
در سمت کاربر، در ابتدایی ترین سطح، پلتفرم های رسانه های اجتماعی دارای مجموعه ای از دستورالعمل های جامعه هستند که همه کاربران باید از آنها پیروی کنند. این دستورالعملها مشخص میکنند که چه محتوا و رفتار قابل قبولی در پلتفرم وجود دارد یا نه. قبل از اینکه بتوانید حساب کاربری ایجاد کنید، باید آنها را بپذیرید.
به عنوان مثال، اکثر پلتفرمها قوانینی علیه اشتراکگذاری مطالب و پستهای ناخواسته با محتوای توهینآمیز یا صریح دارند. اگر پلتفرمی تصمیم بگیرد که محتوا این قوانین را نقض می کند، بسته به شدت و موقعیت ممکن است آن را حذف یا حساب را غیرفعال کند. اما یک مشکل مقیاس وجود دارد: با میلیونها پست در روز، پرچمگذاری و گرفتن هر پستی که به طور بالقوه دستورالعملهای انجمن و شرایط خدمات را نقض میکند برای پلتفرمها دشوار است. به همین دلیل است که پلتفرمها همیشه شما را تشویق میکنند تا فعالیتها یا حسابهای مشکوک را گزارش و مسدود کنید.
برخی از پلتفرمها دارای دستورالعملهای اضافی هستند که مواردی را که میتوان در صفحات کاوش، جستجو یا برای شما تبلیغ کرد، مشخص میکند. به عنوان مثال، TikTok اخیراً دستورالعملهای خود را بهروزرسانی کرده است تا محتوای پرچمگذاری شده به عنوان ترویج اختلالات خوردن و تئوریهای توطئه نتواند در فیدهای For You ظاهر شود. سازندگانی که از پستهای خود کسب درآمد میکنند یا عموماً در صندوقهای خلاقانه شرکت میکنند، باید دستورالعملها و معیارهای بیشتری را رعایت کنند.
در سمت پلتفرم، شرکتها از الگوریتمهایی برای اولویتبندی محتوا در فید شما استفاده میکنند و پستهایی را به شما ارائه میکنند که فکر میکنند دوست خواهید داشت یا جذاب میشوید. بنابراین اگر مجموعه ای از ویدیوهای قلاب بافی یوتیوب را دوست دارید، این پلتفرم به احتمال زیاد ویدیوهای بافتنی را به شما توصیه می کند. همچنین احتمالاً تبلیغات بیشتری را برای آن علاقه دریافت خواهید کرد. پلتفرمها معمولاً در مورد ویژگیهای نحوه عملکرد این الگوریتمها کاملاً دقیق هستند، اما سعی میکنند سازندگان و تبلیغکنندگان را در جهت درست راهنمایی کنند.
نکته مهم دیگری که هنگام درک نحوه عملکرد تعدیل محتوا در رسانه های اجتماعی باید مورد توجه قرار گیرد این است که تصمیمات دادگاه های قبلی ثابت کرده است که شرکت های رسانه های اجتماعی از نظر قانونی مسئولیتی در قبال محتوای ارسال شده توسط کاربران در سایت های خود ندارند، زیرا آنها “پلتفرم” هستند و نه “ناشر”. این بدان معنی است که اگر کسی چیزی توهین آمیز یا نامناسب در یک گروه فیس بوک پست کند، احتمالاً در شکایت از متا موفق نخواهید بود.