پایگاه خبری تحلیلی ایراسین، در یک صبح سرد زمستانی در سال ۲۰۲۵، جولیا، راننده تحویل آمازون در حومه سیاتل، به صفحه گوشی خود خیره شده است. الگوریتم آمازون به او مسیری را پیشنهاد داده که شامل ۱۲ تحویل در کمتر از ۲ ساعت است، مسیری که با ترافیک سنگین شهر و خیابانهای باریک، عملاً غیرممکن به نظر میرسد. او میداند که اگر نتواند این هدف را محقق کند، امتیازش کاهش مییابد و ممکن است شغلش را از دست بدهد. جولیا تنها نیست. میلیونها کارگر در سراسر جهان، از انبارهای آمازون گرفته تا رانندگان اوبر و تحویلدهندگان غذا، تحت نظارت الگوریتمهایی کار میکنند که وعده بهرهوری بیشتر را میدهند، اما اغلب به قیمت سلامت روان و امنیت شغلی آنها تمام میشود. این داستان تنها گوشهای از یک تحول عظیم در دنیای کار را نشان میدهد: ظهور مدیریت الگوریتمی. این گزارش، به بررسی تأثیر الگوریتمها بر نیروی کار، چالشهای پیشرو و راهکارهای احتمالی میپردازد؛ آیا میتوان تعادلی بین ارتقای بهرهوری و توجه به ارزشهای انسانی برقرار کرد، یا اینکه الگوریتمها به ابزاری برای استثمار بیشتر کارگران تبدیل خواهند شد؟
بخش اول: الگوریتمها چگونه نیروی کار را بازتعریف میکنند؟
دهه گذشته شاهد یک انقلاب خاموش در مدیریت نیروی کار بوده است. شرکتهای فناوری، از آمازون و گوگل گرفته تا اوبر و DoorDash، الگوریتمها را به قلب عملیات خود تزریق کردهاند. این الگوریتمها، که با دادههای عظیم (Big Data) و هوش مصنوعی (AI) تغذیه میشوند، وعده دادهاند که بهرهوری را افزایش ، هزینهها را کاهش و فرآیندها را بهینه کنند. اما این وعدهها با هزینهای سنگین همراه بودهاند.
در انبارهای آمازون، الگوریتمها هر حرکت کارگران را رصد میکنند: از تعداد بستههایی که در ساعت جابهجا میکنند تا مدت زمانی که برای استراحت صرف میکنند. گزارشهای متعدد، از جمله تحقیقی از دانشگاه کالیفرنیا در سال ۲۰۲۴، نشان میدهد که این نظارت بیوقفه باعث افزایش نرخ فرسودگی شغلی و آسیبهای جسمی در میان کارگران شده است. به عنوان مثال، در انبار آمازون در نیوجرسی، کارگران گزارش دادهاند که برای دستیابی به اهداف غیرواقعی، مجبورند بدون استراحت کار کنند، که منجر به حوادثی مانند کمردرد مزمن و حتی غش کردن در محل کار شده است.
اما این مشکل تنها به آمازون محدود نمیشود. در اقتصاد گیگ (Gig Economy)، الگوریتمها به ابزاری برای کنترل کارگران مستقل تبدیل شدهاند. رانندگان اوبر و تحویلدهندگان DoorDash اغلب با الگوریتمهایی مواجه هستند که بدون هیچ توضیحی، امتیاز آنها را کاهش میدهند یا آنها را از پلتفرم اخراج میکنند. به گفته یک راننده اوبر در لسآنجلس، «من هر روز با ترس از اخراجشدن کار میکنم، اما نمیدانم چرا امتیازم پایین آمده یا چگونه میتوانم آن را بهبود دهم.» این عدم شفافیت، که در گزارش اکونومیست در سال ۲۰۲۵ نیز برجسته شده، باعث شده که کارگران احساس کنند در یک بازی ناعادلانه گرفتار شدهاند، جایی که قوانین را نمیفهمند و هیچ راهی برای اعتراض ندارند.
از منظر اقتصادی، این تحولات قابل درک هستند. الگوریتمها به شرکتها اجازه میدهند که با هزینه کمتر، خروجی بیشتری داشته باشند. به عنوان مثال، آمازون در سال ۲۰۲۴ گزارش داد که استفاده از الگوریتمها در انبارهایش، بهرهوری را تا ۲۰ درصد افزایش داده است. اما این افزایش بهرهوری با هزینهای پنهان همراه است: استرس، فرسودگی و ناامنی شغلی کارگران. وال استریت ژورنال در تحلیلی در اوایل سال ۲۰۲۵ اشاره کرد که این مدل کسبوکار، که بر بهرهوری حداکثری متمرکز است، ممکن است در کوتاهمدت سودآور باشد، اما در بلندمدت میتواند به بیاعتمادی کارگران و کاهش کیفیت خدمات منجر شود.
بخش دوم: تعصبات الگوریتمی و نابرابری در محل کار
یکی از بزرگترین چالشهای مدیریت الگوریتمی، تعصبات ناخواستهای است که در این سیستمها وجود دارد. الگوریتمها، هرچند که به نظر بیطرف میآیند، اغلب بازتابدهنده تعصبات دادههایی هستند که با آنها آموزش دیدهاند. به عنوان مثال، در سال ۲۰۱۸، آمازون مجبور شد یک الگوریتم استخدام را کنار بگذارد، زیرا مشخص شد که این الگوریتم به طور ناخواسته زنان را از فرآیند استخدام حذف میکند، فقط به این دلیل که دادههای آموزشی آن، رزومههای مردان را بیشتر شامل میشد. این مشکل در سال ۲۰۲۵ همچنان ادامه دارد. تحقیقی از دانشگاه MIT نشان داد که الگوریتمهای استخدام در بسیاری از شرکتهای فناوری، به طور نامتناسبی اقلیتها و زنان را رد میکنند. این تعصبات نه تنها نابرابری را تشدید میکنند، بلکه اعتماد کارگران به سیستم را نیز از بین میبرند. به گفته جین ویگل، استاد فناوری در MIT، «الگوریتمها میتوانند ابزار قدرتمندی برای بهبود بهرهوری باشند، اما اگر به درستی مدیریت نشوند، میتوانند به ابزاری برای تبعیض تبدیل شوند.»
در اقتصاد گیگ، این تعصبات حتی آشکارتر هستند. الگوریتمهای اوبر و لیفت، اغلب به رانندگانی که در مناطق کمدرآمد کار میکنند، امتیاز کمتری میدهند، زیرا مشتریان در این مناطق ممکن است به دلیل مشکلات اقتصادی، کمتر انعام بدهند. این موضوع باعث شده که رانندگان اقلیت، که اغلب در این مناطق کار میکنند، با احتمال بیشتری از پلتفرم اخراج شوند. این موضوع میتواند به تبعیض اقتصادی و نابرابری در دسترسی رانندگان به فرصتهای بهتر منجر شود. گزارشی از وال استریت ژورنال در سال ۲۰۲۴ نشان داد که ۶۰ درصد از رانندگان اخراجشده از اوبر در لسآنجلس، از اقلیتهای نژادی بودند، در حالی که این گروه تنها ۴۵ درصد از کل رانندگان را تشکیل میدادند. این تعصبات نه تنها از منظر اخلاقی مشکلساز هستند، بلکه از نظر اقتصادی نیز میتوانند به ضرر شرکتها تمام شوند. کارگرانی که احساس میکنند مورد تبعیض قرار گرفتهاند، کمتر احتمال دارد که به شرکت وفادار بمانند و این میتواند به افزایش نرخ ترک کار و هزینههای استخدام منجر شود. به علاوه، در عصر شبکههای اجتماعی، اخبار مربوط به تبعیض میتوانند به سرعت منتشر شوند و به اعتبار شرکت آسیب بزنند.
بخش سوم: تأثیرات روانی و اجتماعی الگوریتمها
فراتر از مسائل اقتصادی و نابرابری، الگوریتمها تأثیرات عمیقی بر سلامت روان کارگران داشتهاند. در انبارهای آمازون، کارگران گزارش دادهاند که نظارت دائمی الگوریتمها باعث شده که احساس کنند تحت فشار غیرانسانی هستند. به گفته یکی از کارگران انبار در نیویورک، «من هر روز احساس میکنم که یک روبات هستم، نه یک انسان. اگر یک دقیقه دیر کنم، سیستم به من اخطار میدهد.» تحقیقات روانشناسی نیز این ادعاها را تأیید میکنند. مطالعهای از دانشگاه کالیفرنیا در سال ۲۰۲۴ نشان داد که کارگرانی که تحت نظارت الگوریتمی هستند، ۴۰ درصد بیشتر از همتایان خود دچار اضطراب و افسردگی میشوند. این مشکل در اقتصاد گیگ حتی شدیدتر است. رانندگان اوبر و تحویلدهندگان غذا اغلب با الگوریتمهایی کار میکنند که هیچ بازخوردی ارائه نمیدهند و هیچ راهی برای جبران اشتباهات وجود ندارد. این عدم شفافیت باعث شده که کارگران احساس ناتوانی و ناامیدی کنند. از منظر اجتماعی، الگوریتمها همچنین به انزوای کارگران منجر شدهاند. در گذشته، کارگران میتوانستند با همکاران خود ارتباط برقرار کنند و از حمایت اجتماعی برخوردار شوند. اما در دنیای الگوریتمی، کارگران اغلب به تنهایی کار میکنند و با یک سیستم بیچهره تعامل دارند. به عنوان مثال، رانندگان اوبر به ندرت با مدیران انسانی ارتباط دارند و تمام تعاملات آنها از طریق اپلیکیشن انجام میشود. این انزوا میتواند به کاهش حس تعلق و افزایش احساس تنهایی منجر شود.
بخش چهارم: قانونگذاری و آینده مدیریت الگوریتمی
در حالی که الگوریتمها به سرعت در حال تغییر دنیای کار هستند، قوانین موجود اغلب نمیتوانند از کارگران محافظت کنند. در ایالات متحده، قانون کار فدرال هنوز به طور کامل به موضوع نظارت الگوریتمی نپرداخته است. در اروپا، مقررات سختگیرانهتری مانند قانون حفاظت از دادههای عمومی (GDPR) وجود دارد، اما حتی در آنجا، کارگران اغلب از حقوق خود آگاه نیستند.
کارشناسان معتقدند که برای محافظت از کارگران، باید قوانین جدیدی وضع شود که به طور خاص به موضوع الگوریتمها بپردازد. این قوانین باید شامل موارد زیر باشد:
اول شفافیت: شرکتها باید موظف شوند که نحوه عملکرد الگوریتمهای خود را توضیح دهند و به کارگران اجازه دهند که به دادههای خود دسترسی داشته باشند.
دوم حق اعتراض: کارگران باید بتوانند به تصمیمات الگوریتمی اعتراض کنند و از یک مدیر انسانی بازخورد دریافت کنند.
سوم مشارکت: کارگران باید در فرآیند طراحی و اجرای الگوریتمها مشارکت داشته باشند تا اطمینان حاصل شود که این سیستمها نیازهای آنها را برآورده میکنند.
در سال ۲۰۲۵، برخی از کشورها شروع به حرکت در این مسیر کردهاند. به عنوان مثال، کالیفرنیا قانونی را تصویب کرد که شرکتها را ملزم میکند تا گزارشهای سالانهای در مورد استفاده از الگوریتمها منتشر کنند. اما این اقدامات هنوز کافی نیستند. به گفته اکونومیست، بدون فشار عمومی و همکاری بینالمللی، شرکتها به احتمال زیاد به استفاده از الگوریتمها به شیوهای ادامه خواهند داد که به ضرر کارگران است.
بخش پنجم: راهکارها و آیندهای امیدوارکننده
با وجود چالشها، راهکارهایی برای ایجاد تعادل بین بهرهوری و انسانیت وجود دارد. اولین قدم، افزایش شفافیت است. شرکتها باید الگوریتمهای خود را بهگونهای طراحی کنند که کارگران بتوانند تصمیمات آنها را درک کنند و در صورت لزوم به آنها اعتراض کنند. به عنوان مثال، گوگل در سال ۲۰۲۴ یک سیستم بازخورد الگوریتمی را آزمایش کرد که به کارگران اجازه میداد دلایل تصمیمات را ببینند و بازخورد خود را ارائه دهند. این سیستم باعث افزایش اعتماد کارگران و کاهش استرس آنها شد.
دومین راهکار، آموزش کارگران است. بسیاری از کارگران از حقوق خود در برابر الگوریتمها آگاه نیستند. برنامههای آموزشی میتوانند به آنها کمک کنند که از قوانین موجود، مانند GDPR، به نفع خود استفاده کنند و در صورت لزوم از شرکتها شکایت کنند.
سومین راهکار، طراحی الگوریتمهای انسانمحور است. به جای تمرکز صرف بر بهرهوری، الگوریتمها باید بهگونهای طراحی شوند که سلامت روان و رفاه کارگران را نیز در نظر بگیرند. به عنوان مثال، الگوریتمها میتوانند به جای تحمیل اهداف غیرواقعی، استراحتهای منظم پیشنهاد دهند یا وظایف را بر اساس تواناییهای هر فرد تنظیم کنند. این دیدگاه نشان میدهد که فناوری نباید تنها در خدمت کارآیی اقتصادی باشد، بلکه باید شرایط کاری انسانیتری نیز ایجاد کند. در نهایت، همکاری بین شرکتها، دولتها و کارگران ضروری است. شرکتها باید مسئولیت اجتماعی خود را بپذیرند و از الگوریتمها به شیوهای استفاده کنند که به نفع همه باشد، نه فقط سود سهامداران. دولتها باید قوانین سختگیرانهتری وضع کنند و کارگران باید از طریق اتحادیهها و سازمانهای مدنی، صدای خود را به گوش تصمیمگیران برسانند.
در حالی که جولیا به مسیر تحویل خود ادامه میدهد، سایه الگوریتمها همچنان بر او سنگینی میکند. اما او تنها نیست. میلیونها کارگر در سراسر جهان با چالشهای مشابهی روبه رو هستند، از انبارهای آمازون گرفته تا خیابانهای شلوغ لسآنجلس. الگوریتمها، با تمام وعدههایشان برای بهرهوری و کارآیی، شمشیری دو لبه هستند: آنها میتوانند ابزارهایی برای پیشرفت باشند، اما اگر به درستی مدیریت نشوند، میتوانند به استثمار و نابرابری منجر شوند. آینده کار به تصمیماتی بستگی دارد که امروز میگیریم. آیا دولتها و بنگاهها میتوانند تعادلی بین بهرهوری و انسانیت برقرار کنند؟ یا اینکه الگوریتمها به ابزاری برای کنترل و استثمار تبدیل خواهند شد؟ پاسخ به این سوالات، نه تنها آینده کار، بلکه آینده جامعه ما را شکل خواهد داد. در این مسیر، صدای کارگران، مانند جولیا، باید شنیده شود، زیرا آنها در خط مقدم این تحول عظیم قرار دارند.
ارسال نظر