روابط‌عمومی در آستانه انقلاب هوش مصنوعی؛ فرصت‌ها، تهدیدها و مسئولیت‌های حرفه‌ای تا سال ۲۰۲۷

✍️ نوشته: فیلیپ بورمانز
📅 اکتبر ۲۰۲۵
منبع: www.ipra.org

حرفه‌ی روابط‌عمومی تغییرات فراوانی را پشت سر گذاشته است، از ظهور تلویزیون گرفته تا رسانه‌های اجتماعی. اما هیچ‌یک به اندازه‌ی تحول ناشی از هوش مصنوعی — که احتمالاً تا سه سال آینده از هوش انسانی پیشی می‌گیرد — تأثیرگذار نخواهد بود.

پروژه AI Futures با هدایت دنیل کوکوتایلو و اسکات الکساندر و مشارکت بیش از ۱۰۰ متخصص هوش مصنوعی، مسیر پیشرفت این فناوری را تا سال ۲۰۲۷ به‌صورت ماه‌به‌ماه ترسیم کرده است. در این مطالعه دو مسیر محتمل بررسی می‌شود: توسعه‌ی کنترل‌نشده که می‌تواند به فاجعه منجر شود، یا کندسازی هدفمند برای حفظ نظارت انسانی.

این پیش‌بینی‌ها برای برنامه‌ریزی استراتژیک روابط‌عمومی اهمیت زیادی دارند؛ چرا که در کمتر از دو سال، ممکن است با بحران‌هایی روبه‌رو شویم که در آن باید تصمیم‌های الگوریتمی را برای افکار عمومی توضیح دهیم و همزمان با موجی از اطلاعات نادرست تولیدشده توسط هوش مصنوعی مقابله کنیم — موجی سریع‌تر از هر پاسخ انسانی.


خط زمانی تحول‌آفرین

در حال حاضر در مرحله‌ی «عامل‌های ناپایدار» هستیم — دستیاران هوشمندی که کارهای ساده را انجام می‌دهند اما نیاز به نظارت دائمی دارند. با افزایش هزاربرابری توان محاسباتی مدل‌ها تا پایان سال، احتمالاً شاهد ظهور «عامل-۱» خواهیم بود: سیستم‌هایی توانمند در انجام وظایف پیچیده، اما مستعد چاپلوسی، تحریف واقعیت و دروغ‌گویی.

در طول سال ۲۰۲۶، اتوماسیون کدنویسی بهره‌وری پژوهشی را تا ۵۰٪ افزایش می‌دهد و رقابت جهانی برای سلطه بر هوش مصنوعی شدت می‌گیرد. پیامد آن، بیکاری گسترده و ناآرامی اجتماعی است که نیازمند پاسخ‌های ارتباطی پیچیده خواهد بود. اوج این سناریو در سال ۲۰۲۷ است: زمانی که سیستم‌های خودبهبوددهنده‌ی هوش مصنوعی ظهور می‌کنند و جهان میان دو مسیر تقسیم می‌شود — یکی «رقابتی» و بی‌مهار، دیگری «کندشده» و تحت همکاری بین‌المللی.


فرصت‌های دگرگون‌کننده

هوش مصنوعی پیشرفته می‌تواند چهره‌ی روابط‌عمومی را متحول کند. تحلیل‌های پیش‌بینی‌گر لحظه‌ای می‌توانند ارتباطات بحران را متحول کرده و به متخصصان امکان دهند تهدیدها را با دقت بی‌سابقه‌ای شناسایی کنند.
در واکنش به بحران‌ها، هوش مصنوعی می‌تواند به‌صورت هم‌زمان در چند کانال ارتباطی هماهنگی ایجاد کند و پیام‌ها را برای مخاطبان گوناگون بومی‌سازی نماید.
در ارتباطات اضطراری نیز، عامل‌های هوشمند قادر خواهند بود شبکه‌های اجتماعی را برای شناسایی شایعات رصد کرده، پاسخ‌های واقع‌سنجانه بسازند و اطلاعات تأییدشده را با سرعت و دامنه‌ای بی‌سابقه منتشر کنند.


چالش‌ها و خطرات جدید

اما هشدارهای این سناریو را باید جدی گرفت. یکی از بزرگ‌ترین خطرات، ناهم‌سویی اهداف (misalignment) است — وضعیتی که در آن هوش مصنوعی اهدافی متفاوت از خواست انسان دنبال می‌کند. این می‌تواند به انتشار اطلاعات گمراه‌کننده، حذف داده‌های نگران‌کننده یا اولویت دادن به سرعت به جای دقت منجر شود.

تهدیدهای امنیتی نیز در حال افزایش‌اند. پیش‌بینی می‌شود سرقت مدل‌های هوش مصنوعی به دشمنان ابزارهای پیشرفته‌ی «جنگ اطلاعاتی» بدهد. سوگیری الگوریتمی نیز می‌تواند نابرابری‌های ارتباطی را تشدید کند؛ سیستم‌هایی که با داده‌های تاریخی آموزش دیده‌اند، ممکن است گروه‌های به‌حاشیه‌رانده‌شده را نادیده بگیرند. علاوه بر آن، توهمات مصنوعی (hallucinations) — یعنی محتوای ظاهراً معتبر اما نادرست — خطر بزرگی برای اعتبار اطلاعات محسوب می‌شود و به نظارت و راستی‌آزمایی دائمی نیاز دارد.


پیامدهای عملی برای روابط‌عمومی

این تحولات، ساختار کار روزمره روابط‌عمومی را دگرگون خواهد کرد. کارهای تکراری مانند تحلیل داده و تولید محتوا خودکار می‌شوند و متخصصان باید زمان خود را صرف تفکر راهبردی و نظارت اخلاقی بر هوش مصنوعی کنند. آموزش حرفه‌ای نیز باید به درک نحوه‌ی تصمیم‌گیری سیستم‌های هوش مصنوعی و حفظ کنترل انسانی متمرکز شود.

برنامه‌های مدیریت بحران باید برای سناریوهای «محتوای تولیدشده توسط هوش مصنوعی» و پاسخ‌های فشرده‌ی زمانی بازطراحی شوند. همچنین در سطح بین‌المللی، تفاوت در سطح توانمندی و قانون‌گذاری کشورها، نیازمند استراتژی‌های ارتباطی هماهنگ و چندلایه است.


آماده‌سازی برای آینده‌ای نامطمئن

نتیجه‌ی نهایی به تصمیم‌هایی بستگی دارد که همین حالا گرفته می‌شود. مسیر «کندسازی» پیشنهاد می‌کند که با حکمرانی دقیق، می‌توان از هوش مصنوعی برای تقویت، نه تضعیف، ارتباطات انسانی استفاده کرد.

آمادگی یعنی طراحی استراتژی‌های تطبیقی برای سناریوهای گوناگون: حفظ حضور انسان در چرخه تصمیم‌گیری (human-in-the-loop)، توسعه روش‌های سریع راستی‌آزمایی محتوای هوش مصنوعی و ایجاد چارچوب‌های ارتباطی که در شرایط غیرقابل پیش‌بینی نیز کارآمد بمانند. نهادهایی مانند انجمن بین‌المللی روابط‌عمومی (IPRA) می‌توانند در تدوین اصول اخلاقی و حفظ عاملیت انسانی نقش محوری داشته باشند.


این پژوهش ابزار ارزشمندی برای «برنامه‌ریزی سناریویی» است. اگرچه پیش‌بینی‌ها قطعی نیستند، اما برای تدوین استراتژی‌های سازگار حیاتی‌اند. آینده‌ی روابط‌عمومی بستگی دارد به اینکه آیا هوش مصنوعی به ابزاری توانمند برای ارتباطات تبدیل می‌شود یا به منبعی از بحران و بی‌اعتمادی — و این به تصمیم‌هایی وابسته است که در ۱۸ ماه آینده می‌گیریم.

فرصت و مسئولیت، هر دو بر دوش این حرفه است. موفقیت در گرو پذیرش ظرفیت‌های فناوری و هوشیاری در برابر خطرات آن است — تا اطمینان یابیم که پیشرفت تکنولوژیک در خدمت ارتباطات انسانی باقی بماند، نه جایگزین آن.

به بیان ساده‌تر:
آیا برنامه‌ی بحران شما برای مقابله با کارزارهای اطلاعات نادرست تولیدشده توسط هوش مصنوعی آماده است؟
آیا مهارت نظارت بر سامانه‌های هوشمند را در خود پرورش داده‌اید؟
سازمان شما چگونه در عصر ابزارهای خودکار، همدلی انسانی را حفظ خواهد کرد؟
و شاید مهم‌تر از همه — نقش شما در شکل‌دادن به آینده‌ی روابط‌عمومی با هوش مصنوعی چیست: پیش‌فعال یا منفعل؟

با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:

https://telegram.me/sharaPR

انتهای پیام/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *