فیس بوک می گوید که در مبارزه با سخنان نفرت انگیز و خشونت آمیز از یک سلاح جدید استفاده می کند. همانطور که قبل تر شرکت فیسبوک برای مبارزه با اخبار غیر واقعی برنامه های خود را اعلا کرده بود.
شبکه اجتماعی روز سه شنبه یک سیستم هوشمند جدید AI را با عنوان “روزتا” نامگذاری کرد که برای کمک به رایانه هایش، هر روز میلیاردها تصویر و ویدیو ارسال شده به این شبکه اجتماعی را می خواند، درک می کند و مورد بررسی قرار می دهد.
با استفاده از این سیستم جدید، فیسبوک می تواند به راحتی تشخیص دهد که چه محتوایی نقض قوانین گفتاری شامل خشونت، تهدید و یا تنفر را به همراه داشته است.
به طور معمول، رایانه ها از یک روش تشخیص کاراکتر نوری یا OCR برای تشخیص و ضبط آنچه در عکس ها یا ویدیوها می باشد، استفاده می کنند، اما به دلیل عظیم بودن تعداد کاربران فیس بوک، که 2.2 میلیارد نفر از شبکه اجتماعی هر ماه استفاده می کنند، سیستم OCR دارای کمبودهایی نیز است، بنابراین فیس بوک اعلام کرد که یک سیستم جدیدی برای کار با مقیاس بزرگتر را ساخته است.
این سیستم، که در هر دو Facebook و اینستاگرام استفاده می شود، همچنین می تواند برای بهبود جستجوی عکس و محتوای سطحی در بخش های خبری نیز مورد استفاده واقع شود.
همینطور Rosetta با استخراج متن در زبان های مختلف با بیش از یک میلیارد عکس و فریم های ویدیویی در زمان واقعی کار می کند.
این امر مطمئنا مفید و تاثیرگذار خواهد بود زیرا فیس بوک با مرور محتوای آنچه که در شبکه اجتماعی خود می گذرد، به بررسی دقیق آن ها می پردازد.
فیسبوک متهم به کمک به تحریک خشونت در میانمار، سریلانکا و هند شده است و سال بد فیس بوک بدتر و بدتر می شده است.
شبکه اجتماعی اعلام کرد که 18 حساب و 52 صفحه مرتبط با ارتش میانمار را به دلیل خشونت قومی گذشته علیه مسلمانان Rohingya، حذف کرده است.
این شامل هر دو پست های نوشته شده و تصاویر دستکاری شده است.
پیش از این، فیس بوک تنها محتوایی را که به طور مستقیم برای خشونت خوانده می شد را ممنوع کرده بود.
اما سیاست جدید اکنون اخبار جعلی را پوشش می دهد که توانایی آسیب فیزیکی را داشته اند.
Sheryl Sandberg، مدیر ارشد عملیاتی فیس بوک، در سال گذشته همراه با Jack Dorsey، مدیر عامل توییتر، در کنگره ایالت متحده درباره سیاست های محرمانگی محتوا و شیوه های امنیتی خود برای محافظت از کاربران توضیح دادند.
اقدامات جدید اتحادیه اروپا برای حذف پست های غیر اخلاقی از شبکه های اجتماعی، اخیرا شبکه های اجتماعی را به کنترل بیشتر در برنامه هایشان تشویق می کند.
مدیر عامل فیسبوک، مارک زاکربرگ، اخیرا گفته است که این شرکت به دنبال هوش مصنوعی است تا سعی کند فیس بوک را تمیز و پاک کند، که به جای انتظار از افرادی که آن را پرچمدار می کنند، محتوای قابل اعتراض را تشخیص دهد و حذف کند.
اما در حالیکه این شرکت در حال توسعه فناوری است، وی گفت که شبکه اجتماعی 20،000 مدیر و ناظم انسانی را استخدام کرده است تا پلت فرم را از مواد مضر حفظ کند.
گفته می شود که مارک زاکربرگ، رفع مشکلات فیس بوک را تا سال ۲۰۱۹ می بیند.
به طور جداگانه، فیس بوک در روز سه شنبه همچنین گفت که زبان های جدیدی را به مجموعه ابزارهای ترجمه خودکار اضافه کرده است.
شبکه اجتماعی 24 زبان جدید اضافه کرده است که در حال حاضر در بیش از 125 زبان از جمله هاوسا، اردو و نپالی ترجمه شده است.
بیشتر بخوانید: فیسبوک شرایط مناسب را برای دسترسی محققان و روزنامه نگاران فراهم می کند.