چندی است که گسترش استفاده از توییت‌های حاوی کلمات نامناسب و توهین‌آمیز در میان کاربران توییتر گسترش یافته و این شرکت نیز در واکنش به فشارها و انتقادهای وارده، سیاست‌هایی همچون علامت‌گذاری توییت‌های نامناسب و همچنین استفاده از فناوری‌های مبتنی بر هوش مصنوعی را برای مقابله با این رویه در نظر گرفته است.

سانیتا سالیگرام، از مدیران ارشد توییتر در گفت‌وگویی عنوان کرد: هدف ما این است تا کاربران را وادار کنیم قبل از ارسال پست‌هایشان، در مورد انتخاب کلمات کمی تامل کرده و در انتخاب واژگان، تجدیدنظر کنند. چراکه ممکن است در آن لحظه، در شرایطی باشند که با انتشار یک پست یا استفاده از کلمات نامناسب، بعدا پشیمان شده و تاسف بخورند. به عبارتی دیگر، سوءتفاهم‌ها درخصوص موضوعات و ارزش‌های مشترک میان کاربران توییتر، یکی از عوامل اصلی بحث و جدل در این پلت‌فرم بوده و شاید بتوان از این طریق، تا حد زیادی از این برخوردها جلوگیری کرد. از طرفی دیگر، قابلیت مذکور به کاربران نشان خواهد داد که تا چه اندازه توییتر، نسبت به استفاده از الفاظ و عبارت‌هایی که در جهت تحقیر یا توهین به انسان‌ها به‌کار ‌می‌روند، حساس است.

از آنجا که در این شیوه، خود کاربر روی پست‌های خود نظارت خواهد کرد، حجم قابل توجهی از کار توییتر برای پیدا کردن توییت‌های حاوی کلمات و عبارات نامناسب کاهش خواهد یافت. طبق آخرین گزارش‌ها، توییتر بین ماه‌های ژانویه تا ژوئن سال گذشته، توییت بیش از ۵۸۴ هزار حساب کاربری را به علت انتشار مطالب توهین‌آمیز از پلت‌فرم خود حذف کرد. قرار است مراحل تست این ویژگی طی چند هفته انجام شود و به اتمام برسد و بعد از آن در این پلت‌فرم تعبیه شود. گفته ‌می‌شود قابلیت مذکور، صرفا برای توییت‌هایی به زبان انگلیسی فعال خواهد بود.

این مطلب برایم مفید است
0 نفر این پست را پسندیده اند