همدردی و پیشنهادهای شغلی برای کارشناسان اطلاعات غلط توییتر

طی هفته‌هایی که ایلان ماسک مدیریت توییتر را به دست گرفت، ده‌ها نفر از افرادی که مسئول نگهداری مطالب خطرناک یا نادرست در این سرویس هستند، در لینکدین پست کرده‌اند که استعفا داده‌اند یا شغل خود را از دست داده‌اند. اظهارات آنها سیل تسلیت و تلاش برای جذب آنها را به همراه داشته است.

پیشنهاداتی از سوی خدمات فناوری رقیب، خرده‌فروشان، شرکت‌های مشاوره، پیمانکاران دولتی و سایر سازمان‌هایی که می‌خواهند از کارمندان سابق توییتر – و کسانی که اخیراً توسط متا و پلتفرم پرداخت Stripe رها شده‌اند – برای ردیابی و مبارزه با اطلاعات نادرست و سمی در اینترنت استفاده کنند، رسید. .

آنیا اسمیت، مدیر اجرایی TaskRabbit، بازار متعلق به Ikea برای کارگران غرفه، در مورد پست یکی از کارمندان سابق توییتر در این ماه اظهار نظر کرد که او باید درخواست یک مدیر محصول را در نظر بگیرد و تا حدی روی ابزارهای اعتماد و ایمنی کار کند.

خانم اسمیت در مصاحبه ای گفت: “جنگ برای استعدادها در 24 ماه گذشته در فناوری واقعا استثنایی بوده است.” بنابراین وقتی شاهد اخراج‌هایی هستیم، چه در توییتر یا متا یا شرکت‌های دیگر، قطعاً فرصتی است که به دنبال برخی از استعدادهای بسیار بالا که می‌دانیم آنها استخدام می‌کنند، برویم.»

او افزود که ایجاد احساس امنیت در پلتفرم TaskRabbit برای کاربران یکی از اجزای کلیدی موفقیت شرکت او بود.

او گفت: “ما واقعا نمی توانیم بدون سرمایه گذاری در تیم اعتماد و ایمنی به رشد خود ادامه دهیم.”

تهدیدات ناشی از تئوری‌های توطئه، رسانه‌های با دستکاری گمراه‌کننده، سخنان نفرت‌انگیز، کودک آزاری، کلاهبرداری و سایر آسیب‌های آنلاین برای سال‌ها توسط محققان دانشگاهی، اتاق‌های فکر و تحلیلگران دولتی مورد مطالعه قرار گرفته‌اند. اما به‌طور فزاینده‌ای، شرکت‌های داخل و خارج از صنعت فناوری، سوء استفاده را به‌عنوان یک مسئولیت بالقوه گران‌قیمت می‌بینند، به‌ویژه که کارهای بیشتری به صورت آنلاین انجام می‌شود و تنظیم‌کننده‌ها و مشتریان برای نرده‌های محافظ قوی‌تر تلاش می‌کنند.

در لینکدین، در زیر پست‌هایی که از کار توییتر در مورد انتخابات و تعدیل محتوا تمجید می‌کردند، نظرات در TikTok (محقق تهدید)، DoorDash (مدیر سیاست‌های جامعه) و Twitch (مدیر حوادث ایمنی و اعتماد) تبلیغ می‌کردند. مدیران سایر شرکت‌ها پیشنهاداتی را برای افزودن نام به پایگاه‌های اطلاعاتی استخدام کردند. گوگل، ردیت، مایکروسافت، دیسکورد و ActiveFence – یک شرکت چهار ساله که سال گذشته اعلام کرد 100 میلیون دلار جمع‌آوری کرده است و می‌تواند بیش از سه میلیون منبع گفتگوی مخرب را به هر زبانی اسکن کند – همچنین آگهی‌های شغلی دارند.

لیزا کاپلان، بنیانگذار Alethea، شرکتی که از فناوری تشخیص زودهنگام برای کمک به مشتریان در محافظت در برابر کمپین های اطلاعات نادرست استفاده می کند، گفت که حوزه اعتماد و ایمنی به سختی یک دهه پیش وجود داشت، و مجموعه استعدادها هنوز کوچک است. این شرکت سه ساله 35 کارمند دارد. خانم کاپلان گفت که امیدوار است تا اواسط سال 2023 23 مورد دیگر اضافه کند و در تلاش است تا کارمندان سابق توییتر را به خدمت بگیرد.

او گفت که اطلاعات نادرست مانند “بدافزار جدید” است – یک “واقعیت دیجیتالی که در نهایت بر هر شرکتی تاثیر می گذارد.” مشتریانی که زمانی از نگهبانان مسلح برای ایستادن در خارج از اتاق‌های داده استفاده می‌کردند و سپس فایروال‌های آنلاین برای مسدود کردن هکرها می‌ساختند، اکنون از شرکت‌هایی مانند Alethea برای پشتیبان‌گیری می‌خواهند، زمانی که، برای مثال، کمپین‌های نفوذ هماهنگ، درک عمومی از برندشان را هدف قرار می‌دهند و قیمت سهام آنها را تهدید می‌کنند. کاپلان گفت.

او گفت: “هر کسی می تواند این کار را انجام دهد – سریع، ارزان و آسان است.” «هرچه بازیگران بیشتری وارد عمل سلاح‌سازی اطلاعات، چه برای منافع مالی، شهرت، سیاسی یا ایدئولوژیکی شوند، اهداف بیشتری را خواهید دید. این بازار در حال ظهور است زیرا تهدید افزایش یافته و عواقب آن واقعی تر شده است.

جان کلی، محقق دانشگاهی در کلمبیا، هاروارد و آکسفورد قبل از تأسیس Graphika، یک شرکت تجزیه و تحلیل رسانه های اجتماعی، در سال 2013، گفت که اطلاعات نادرست در سال 2016 به عنوان یک مشکل مهم شناخته شد. کارمندان این شرکت به عنوان «نقشه نگاران عصر اینترنت» برای کارشان در ساختن نقشه های دقیق رسانه های اجتماعی برای مشتریانی مانند پینترست و متا.

تمرکز Graphika، در ابتدا بر روی استخراج بینش های بازاریابی دیجیتال، به طور پیوسته به سمت موضوعاتی مانند کمپین های اطلاعات نادرست هماهنگ شده توسط خارجی ها، روایت های افراطی و اطلاعات نادرست آب و هوا تغییر کرده است. آقای کلی گفت، انتقال که در سال 2016 با کشف عملیات نفوذ روسیه با هدف قرار دادن انتخابات ریاست جمهوری ایالات متحده آغاز شد، با هجوم تئوری های توطئه کووید-19 در طول همه گیری تشدید شد.

او گفت: «مشکلات از عرصه سیاسی خارج شده و به مشکل Fortune 500 تبدیل شده است. دامنه آسیب های آنلاین گسترش یافته است و طیف افرادی که آسیب های آنلاین را انجام می دهند، گسترش یافته است.

تلاش‌ها برای مقابله با اطلاعات نادرست و اطلاعات نادرست شامل ابتکارات تحقیقاتی از سوی دانشگاه‌ها و مؤسسات سیاست‌گذاری سطح بالا، کمپین‌های سواد رسانه‌ای و طرح‌هایی برای پر جمعیت کردن بیابان‌های خبری با لباس‌های روزنامه‌نگاری محلی بوده است.

بر اساس گزارش جولای اندیشکده ژئوپلیتیک آلمان مارشال فاند، بسیاری از پلتفرم‌های رسانه‌های اجتماعی تیم‌های داخلی را برای رسیدگی به این مشکل ایجاد کرده‌اند یا کار تعدیل محتوا را به شرکت‌های بزرگی مانند Accenture واگذار کرده‌اند. در ماه سپتامبر، گوگل خرید 5.4 میلیارد دلاری Mandiant را تکمیل کرد، یک شرکت 18 ساله که فعالیت های نفوذ آنلاین و همچنین ارائه سایر خدمات امنیت سایبری را ردیابی می کند.

گروه رو به رشدی از استارت‌آپ‌ها که بسیاری از آنها برای ریشه‌یابی و رمزگشایی روایت‌های آنلاین به هوش مصنوعی متکی هستند، تمرین‌های مشابهی را انجام می‌دهند که اغلب برای مشتریان شرکت‌های آمریکایی است.

Alethea یک دور جمع آوری سرمایه 10 میلیون دلاری را در ماه اکتبر به پایان رساند. همچنین در ماه گذشته، Spotify گفت که شرکت ایرلندی پنج ساله Kinzen را خریداری کرده است، و به دلیل درک این شرکت در مورد “پیچیدگی تجزیه و تحلیل محتوای صوتی به صدها زبان و گویش، و چالش‌های موجود در ارزیابی موثر تفاوت‌ها و اهداف آن محتوا است. ” (ماه‌ها قبل، Spotify خود را در تلاش برای فرونشاندن غوغا به دلیل اتهامات مبنی بر اینکه میزبان ستاره پادکست آن، جو روگان، اطلاعات نادرست واکسن منتشر می‌کند، پیدا کرد.) صندوق الکسا آمازون زمستان گذشته در یک دور بودجه 24 میلیون دلاری برای Logically پنج ساله شرکت کرد. از هوش مصنوعی برای شناسایی اطلاعات نادرست و اطلاعات نادرست در مورد موضوعاتی مانند تغییرات آب و هوا و کووید-19 استفاده می کند.

بیز استون، یکی از بنیانگذاران توییتر، سال گذشته در یک صفحه تامین مالی جمعی برای Factmata، یکی دیگر از اطلاعات نادرست مبتنی بر هوش مصنوعی، نوشت: «همراه با تمام جنبه‌های فوق‌العاده وب، مشکلات جدیدی مانند سوگیری، اطلاعات غلط و محتوای توهین‌آمیز وجود دارد. عملیات دفاعی می‌تواند گیج‌کننده و دشوار باشد که بتوان به اطلاعات قابل اعتماد و درست دسترسی پیدا کرد.»

با وجود انبوه اعلامیه های اخیر اخراج، کسب و کارها در طیف گسترده ای از نقش های اعتماد و ایمنی استخدام می کنند.

شرکت ها از افراد متخصص در تشخیص محتوای ارسال شده توسط کودکان آزاردهنده یا قاچاقچیان انسان و همچنین ماموران سابق ضد تروریسم ارتش با مدارک تحصیلی پیشرفته در حقوق، علوم سیاسی و مهندسی استقبال کرده اند. مجریانی که بسیاری از آنها به عنوان پیمانکار کار می کنند نیز مورد تقاضا هستند.

منیر ابراهیم، ​​معاون امور عمومی و تأثیر Truepic، یک شرکت فناوری متخصص در صحت تصویر و محتوای دیجیتال، گفت که بسیاری از مشتریان اولیه بانک‌ها و شرکت‌های بیمه بودند که بیشتر و بیشتر به تراکنش‌های دیجیتال متکی بودند.

او گفت: «ما در حال حاضر در نقطه عطف اینترنت مدرن هستیم. ما با یک سونامی از مواد مولد و مصنوعی روبرو هستیم که قرار است خیلی خیلی زود به صفحه نمایش رایانه ما برسد – نه فقط تصاویر و ویدیوها، بلکه متن، کد، صدا و همه چیز زیر نور خورشید. و این نه تنها بر اطلاعات نادرست، بلکه بر یکپارچگی نام تجاری، دنیای فناوری مالی، بر دنیای بیمه و تقریباً در هر عمودی که اکنون به صورت دیجیتالی پس از کووید در حال تغییر است، خواهد داشت.

Truepic با شرکت‌هایی مانند Zignal Labs و Memetica در گزارش صندوق مارشال آلمان در مورد استارت‌آپ‌های دفاعی نادرست معرفی شد. آنیا شیفرین، نویسنده اصلی و مدرس ارشد در دانشکده روابط بین‌الملل و عمومی کلمبیا، گفت که مقررات آتی اطلاعات نادرست و سایر محتوای مخرب می‌تواند به مشاغل بیشتری در فضای اعتماد و ایمنی منجر شود.

او گفت که رگولاتورهای سراسر اتحادیه اروپا از قبل افرادی را برای کمک به اجرای قانون خدمات دیجیتال جدید استخدام می‌کردند که پلتفرم‌های اینترنتی را برای مبارزه با اطلاعات نادرست و محدود کردن برخی تبلیغات آنلاین ملزم می‌کند.

خانم شیفرین گفت: «من واقعاً از این که این شرکت‌های واقعاً ثروتمند می‌گویند خیلی گران است خسته شده‌ام – این هزینه انجام تجارت است، نه یک تجمل اضافی. “اگر نمی توانید اطلاعات دقیق و باکیفیت را به مشتریان خود ارائه دهید، پس شما در حال فعالیت نیستید.”


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم