• ۱۰ تیر ۱۴۰۴ - ۱۱:۲۲
  • کد خبر: 76143
  • زمان مطالعه: ۸ دقیقه

زنجیر نامرئی

آیا می‌توان میان بهره‌وری الگوریتمی و حفظ ارزش‌های انسانی تعادل برقرار کرد؟
نیروی کار

الگوریتم‌ها، با تمام وعده‌هایشان برای بهره‌وری و کارآیی، یک شمشیر دو لبه هستند، آنها می‌توانند ابزارهایی برای پیشرفت باشند، اما اگر به درستی مدیریت نشوند، می‌توانند به استثمار و نابرابری منجر شوند. میلیون‌ها کارگر، از انبارهای آمازون تا خیابان‌های لس‌آنجلس، زیر فشار این سیستم‌ها کار می‌کنند. اما آیا دولت‌ها و بنگاه‌ها قادرند تعادلی بین بهره‌وری الگوریتمی و حفظ ارزش‌های انسانی برقرار کنند؟ یا الگوریتم‌ها به ابزاری برای کنترل بیشتر تبدیل خواهند شد؟ صدای کارگرانی که در خط مقدم این تغییرات قرار دارند، باید شنیده شود!.

پایگاه خبری تحلیلی ایراسین، در یک صبح سرد زمستانی در سال ۲۰۲۵، جولیا، راننده تحویل آمازون در حومه سیاتل، به صفحه گوشی خود خیره شده است. الگوریتم آمازون به او مسیری را پیشنهاد داده که شامل ۱۲ تحویل در کمتر از ۲ ساعت است، مسیری که با ترافیک سنگین شهر و خیابان‌های باریک، عملاً غیرممکن به نظر می‌رسد. او می‌داند که اگر نتواند این هدف را محقق کند، امتیازش کاهش می‌یابد و ممکن است شغلش را از دست بدهد. جولیا تنها نیست. میلیون‌ها کارگر در سراسر جهان، از انبارهای آمازون گرفته تا رانندگان اوبر و تحویل‌دهندگان غذا، تحت نظارت الگوریتم‌هایی کار می‌کنند که وعده بهره‌وری بیشتر را می‌دهند، اما اغلب به قیمت سلامت روان و امنیت شغلی آنها تمام می‌شود. این داستان تنها گوشه‌ای از یک تحول عظیم در دنیای کار را نشان می‌دهد: ظهور مدیریت الگوریتمی. این گزارش، به بررسی تأثیر الگوریتم‌ها بر نیروی کار، چالش‌های پیش‌رو و راهکارهای احتمالی می‌پردازد؛ آیا می‌توان تعادلی بین ارتقای بهره‌وری و توجه به ارزش‌های انسانی برقرار کرد، یا اینکه الگوریتم‌ها به ابزاری برای استثمار بیشتر کارگران تبدیل خواهند شد؟

بخش اول: الگوریتم‌ها چگونه نیروی کار را بازتعریف می‌کنند؟

دهه گذشته شاهد یک انقلاب خاموش در مدیریت نیروی کار بوده است. شرکت‌های فناوری، از آمازون و گوگل گرفته تا اوبر و DoorDash، الگوریتم‌ها را به قلب عملیات خود تزریق کرده‌اند. این الگوریتم‌ها، که با داده‌های عظیم (Big Data) و هوش مصنوعی (AI) تغذیه می‌شوند، وعده داده‌اند که بهره‌وری را افزایش ، هزینه‌ها را کاهش و فرآیندها را بهینه کنند. اما این وعده‌ها با هزینه‌ای سنگین همراه بوده‌اند.

در انبارهای آمازون، الگوریتم‌ها هر حرکت کارگران را رصد می‌کنند: از تعداد بسته‌هایی که در ساعت جابه‌جا می‌کنند تا مدت زمانی که برای استراحت صرف می‌کنند. گزارش‌های متعدد، از جمله تحقیقی از دانشگاه کالیفرنیا در سال ۲۰۲۴، نشان می‌دهد که این نظارت بی‌وقفه باعث افزایش نرخ فرسودگی شغلی و آسیب‌های جسمی در میان کارگران شده است. به عنوان مثال، در انبار آمازون در نیوجرسی، کارگران گزارش داده‌اند که برای دستیابی به اهداف غیرواقعی، مجبورند بدون استراحت کار کنند، که منجر به حوادثی مانند کمردرد مزمن و حتی غش کردن در محل کار شده است.

اما این مشکل تنها به آمازون محدود نمی‌شود. در اقتصاد گیگ (Gig Economy)، الگوریتم‌ها به ابزاری برای کنترل کارگران مستقل تبدیل شده‌اند. رانندگان اوبر و تحویل‌دهندگان DoorDash اغلب با الگوریتم‌هایی مواجه هستند که بدون هیچ توضیحی، امتیاز آنها را کاهش می‌دهند یا آنها را از پلتفرم اخراج می‌کنند. به گفته یک راننده اوبر در لس‌آنجلس، «من هر روز با ترس از اخراج‌شدن کار می‌کنم، اما نمی‌دانم چرا امتیازم پایین آمده یا چگونه می‌توانم آن را بهبود دهم.» این عدم شفافیت، که در گزارش اکونومیست در سال ۲۰۲۵ نیز برجسته شده، باعث شده که کارگران احساس کنند در یک بازی ناعادلانه گرفتار شده‌اند، جایی که قوانین را نمی‌فهمند و هیچ راهی برای اعتراض ندارند.

از منظر اقتصادی، این تحولات قابل درک هستند. الگوریتم‌ها به شرکت‌ها اجازه می‌دهند که با هزینه کمتر، خروجی بیشتری داشته باشند. به عنوان مثال، آمازون در سال ۲۰۲۴ گزارش داد که استفاده از الگوریتم‌ها در انبارهایش، بهره‌وری را تا ۲۰ درصد افزایش داده است. اما این افزایش بهره‌وری با هزینه‌ای پنهان همراه است: استرس، فرسودگی و ناامنی شغلی کارگران. وال استریت ژورنال در تحلیلی در اوایل سال ۲۰۲۵ اشاره کرد که این مدل کسب‌وکار، که بر بهره‌وری حداکثری متمرکز است، ممکن است در کوتاه‌مدت سودآور باشد، اما در بلندمدت می‌تواند به بی‌اعتمادی کارگران و کاهش کیفیت خدمات منجر شود.

بخش دوم: تعصبات الگوریتمی و نابرابری در محل کار

یکی از بزرگ‌ترین چالش‌های مدیریت الگوریتمی، تعصبات ناخواسته‌ای است که در این سیستم‌ها وجود دارد. الگوریتم‌ها، هرچند که به نظر بی‌طرف می‌آیند، اغلب بازتاب‌دهنده تعصبات داده‌هایی هستند که با آنها آموزش دیده‌اند. به عنوان مثال، در سال ۲۰۱۸، آمازون مجبور شد یک الگوریتم استخدام را کنار بگذارد، زیرا مشخص شد که این الگوریتم به طور ناخواسته زنان را از فرآیند استخدام حذف می‌کند، فقط به این دلیل که داده‌های آموزشی آن، رزومه‌های مردان را بیشتر شامل می‌شد. این مشکل در سال ۲۰۲۵ همچنان ادامه دارد. تحقیقی از دانشگاه MIT نشان داد که الگوریتم‌های استخدام در بسیاری از شرکت‌های فناوری، به طور نامتناسبی اقلیت‌ها و زنان را رد می‌کنند. این تعصبات نه تنها نابرابری را تشدید می‌کنند، بلکه اعتماد کارگران به سیستم را نیز از بین می‌برند. به گفته جین ویگل، استاد فناوری در MIT، «الگوریتم‌ها می‌توانند ابزار قدرتمندی برای بهبود بهره‌وری باشند، اما اگر به درستی مدیریت نشوند، می‌توانند به ابزاری برای تبعیض تبدیل شوند.»

در اقتصاد گیگ، این تعصبات حتی آشکارتر هستند. الگوریتم‌های اوبر و لیفت، اغلب به رانندگانی که در مناطق کم‌درآمد کار می‌کنند، امتیاز کمتری می‌دهند، زیرا مشتریان در این مناطق ممکن است به دلیل مشکلات اقتصادی، کمتر انعام بدهند. این موضوع باعث شده که رانندگان اقلیت، که اغلب در این مناطق کار می‌کنند، با احتمال بیشتری از پلتفرم اخراج شوند. این موضوع می‌تواند به تبعیض اقتصادی و نابرابری در دسترسی رانندگان به فرصت‌های بهتر منجر شود. گزارشی از وال استریت ژورنال در سال ۲۰۲۴ نشان داد که ۶۰ درصد از رانندگان اخراج‌شده از اوبر در لس‌آنجلس، از اقلیت‌های نژادی بودند، در حالی که این گروه تنها ۴۵ درصد از کل رانندگان را تشکیل می‌دادند. این تعصبات نه تنها از منظر اخلاقی مشکل‌ساز هستند، بلکه از نظر اقتصادی نیز می‌توانند به ضرر شرکت‌ها تمام شوند. کارگرانی که احساس می‌کنند مورد تبعیض قرار گرفته‌اند، کمتر احتمال دارد که به شرکت وفادار بمانند و این می‌تواند به افزایش نرخ ترک کار و هزینه‌های استخدام منجر شود. به علاوه، در عصر شبکه‌های اجتماعی، اخبار مربوط به تبعیض می‌توانند به سرعت منتشر شوند و به اعتبار شرکت آسیب بزنند.

بخش سوم: تأثیرات روانی و اجتماعی الگوریتم‌ها

فراتر از مسائل اقتصادی و نابرابری، الگوریتم‌ها تأثیرات عمیقی بر سلامت روان کارگران داشته‌اند. در انبارهای آمازون، کارگران گزارش داده‌اند که نظارت دائمی الگوریتم‌ها باعث شده که احساس کنند تحت فشار غیرانسانی هستند. به گفته یکی از کارگران انبار در نیویورک، «من هر روز احساس می‌کنم که یک روبات هستم، نه یک انسان. اگر یک دقیقه دیر کنم، سیستم به من اخطار می‌دهد.» تحقیقات روان‌شناسی نیز این ادعاها را تأیید می‌کنند. مطالعه‌ای از دانشگاه کالیفرنیا در سال ۲۰۲۴ نشان داد که کارگرانی که تحت نظارت الگوریتمی هستند، ۴۰ درصد بیشتر از همتایان خود دچار اضطراب و افسردگی می‌شوند. این مشکل در اقتصاد گیگ حتی شدیدتر است. رانندگان اوبر و تحویل‌دهندگان غذا اغلب با الگوریتم‌هایی کار می‌کنند که هیچ بازخوردی ارائه نمی‌دهند و هیچ راهی برای جبران اشتباهات وجود ندارد. این عدم شفافیت باعث شده که کارگران احساس ناتوانی و ناامیدی کنند. از منظر اجتماعی، الگوریتم‌ها همچنین به انزوای کارگران منجر شده‌اند. در گذشته، کارگران می‌توانستند با همکاران خود ارتباط برقرار کنند و از حمایت اجتماعی برخوردار شوند. اما در دنیای الگوریتمی، کارگران اغلب به تنهایی کار می‌کنند و با یک سیستم بی‌چهره تعامل دارند. به عنوان مثال، رانندگان اوبر به ندرت با مدیران انسانی ارتباط دارند و تمام تعاملات آنها از طریق اپلیکیشن انجام می‌شود. این انزوا می‌تواند به کاهش حس تعلق و افزایش احساس تنهایی منجر شود.

بخش چهارم: قانون‌گذاری و آینده مدیریت الگوریتمی

در حالی که الگوریتم‌ها به سرعت در حال تغییر دنیای کار هستند، قوانین موجود اغلب نمی‌توانند از کارگران محافظت کنند. در ایالات متحده، قانون کار فدرال هنوز به طور کامل به موضوع نظارت الگوریتمی نپرداخته است. در اروپا، مقررات سخت‌گیرانه‌تری مانند قانون حفاظت از داده‌های عمومی (GDPR) وجود دارد، اما حتی در آنجا، کارگران اغلب از حقوق خود آگاه نیستند.

کارشناسان معتقدند که برای محافظت از کارگران، باید قوانین جدیدی وضع شود که به طور خاص به موضوع الگوریتم‌ها بپردازد. این قوانین باید شامل موارد زیر باشد:

اول شفافیت: شرکت‌ها باید موظف شوند که نحوه عملکرد الگوریتم‌های خود را توضیح دهند و به کارگران اجازه دهند که به داده‌های خود دسترسی داشته باشند.

دوم حق اعتراض: کارگران باید بتوانند به تصمیمات الگوریتمی اعتراض کنند و از یک مدیر انسانی بازخورد دریافت کنند.

سوم مشارکت: کارگران باید در فرآیند طراحی و اجرای الگوریتم‌ها مشارکت داشته باشند تا اطمینان حاصل شود که این سیستم‌ها نیازهای آنها را برآورده می‌کنند.

در سال ۲۰۲۵، برخی از کشورها شروع به حرکت در این مسیر کرده‌اند. به عنوان مثال، کالیفرنیا قانونی را تصویب کرد که شرکت‌ها را ملزم می‌کند تا گزارش‌های سالانه‌ای در مورد استفاده از الگوریتم‌ها منتشر کنند. اما این اقدامات هنوز کافی نیستند. به گفته اکونومیست، بدون فشار عمومی و همکاری بین‌المللی، شرکت‌ها به احتمال زیاد به استفاده از الگوریتم‌ها به شیوه‌ای ادامه خواهند داد که به ضرر کارگران است.

بخش پنجم: راهکارها و آینده‌ای امیدوارکننده

با وجود چالش‌ها، راهکارهایی برای ایجاد تعادل بین بهره‌وری و انسانیت وجود دارد. اولین قدم، افزایش شفافیت است. شرکت‌ها باید الگوریتم‌های خود را به‌گونه‌ای طراحی کنند که کارگران بتوانند تصمیمات آنها را درک کنند و در صورت لزوم به آنها اعتراض کنند. به عنوان مثال، گوگل در سال ۲۰۲۴ یک سیستم بازخورد الگوریتمی را آزمایش کرد که به کارگران اجازه می‌داد دلایل تصمیمات را ببینند و بازخورد خود را ارائه دهند. این سیستم باعث افزایش اعتماد کارگران و کاهش استرس آنها شد.

دومین راهکار، آموزش کارگران است. بسیاری از کارگران از حقوق خود در برابر الگوریتم‌ها آگاه نیستند. برنامه‌های آموزشی می‌توانند به آنها کمک کنند که از قوانین موجود، مانند GDPR، به نفع خود استفاده کنند و در صورت لزوم از شرکت‌ها شکایت کنند.

سومین راهکار، طراحی الگوریتم‌های انسان‌محور است. به جای تمرکز صرف بر بهره‌وری، الگوریتم‌ها باید به‌گونه‌ای طراحی شوند که سلامت روان و رفاه کارگران را نیز در نظر بگیرند. به عنوان مثال، الگوریتم‌ها می‌توانند به جای تحمیل اهداف غیرواقعی، استراحت‌های منظم پیشنهاد دهند یا وظایف را بر اساس توانایی‌های هر فرد تنظیم کنند. این دیدگاه نشان می‌دهد که فناوری نباید تنها در خدمت کارآیی اقتصادی باشد، بلکه باید شرایط کاری انسانی‌تری نیز ایجاد کند. در نهایت، همکاری بین شرکت‌ها، دولت‌ها و کارگران ضروری است. شرکت‌ها باید مسئولیت اجتماعی خود را بپذیرند و از الگوریتم‌ها به شیوه‌ای استفاده کنند که به نفع همه باشد، نه فقط سود سهام‌داران. دولت‌ها باید قوانین سخت‌گیرانه‌تری وضع کنند و کارگران باید از طریق اتحادیه‌ها و سازمان‌های مدنی، صدای خود را به گوش تصمیم‌گیران برسانند.

در حالی که جولیا به مسیر تحویل خود ادامه می‌دهد، سایه الگوریتم‌ها همچنان بر او سنگینی می‌کند. اما او تنها نیست. میلیون‌ها کارگر در سراسر جهان با چالش‌های مشابهی روبه رو هستند، از انبارهای آمازون گرفته تا خیابان‌های شلوغ لس‌آنجلس. الگوریتم‌ها، با تمام وعده‌هایشان برای بهره‌وری و کارآیی، شمشیری دو لبه هستند: آنها می‌توانند ابزارهایی برای پیشرفت باشند، اما اگر به درستی مدیریت نشوند، می‌توانند به استثمار و نابرابری منجر شوند. آینده کار به تصمیماتی بستگی دارد که امروز می‌گیریم. آیا دولت‌ها و بنگاه‌ها می‌توانند تعادلی بین بهره‌وری و انسانیت برقرار کنند؟ یا اینکه الگوریتم‌ها به ابزاری برای کنترل و استثمار تبدیل خواهند شد؟ پاسخ به این سوالات، نه تنها آینده کار، بلکه آینده جامعه ما را شکل خواهد داد. در این مسیر، صدای کارگران، مانند جولیا، باید شنیده شود، زیرا آنها در خط مقدم این تحول عظیم قرار دارند.

ارسال نظر

شما در حال پاسخ به نظر «» هستید.
0 + 0 =