✍️ نوشته: فیلیپ بورمانز
📅 اکتبر ۲۰۲۵
منبع: www.ipra.org
حرفهی روابطعمومی تغییرات فراوانی را پشت سر گذاشته است، از ظهور تلویزیون گرفته تا رسانههای اجتماعی. اما هیچیک به اندازهی تحول ناشی از هوش مصنوعی — که احتمالاً تا سه سال آینده از هوش انسانی پیشی میگیرد — تأثیرگذار نخواهد بود.
پروژه AI Futures با هدایت دنیل کوکوتایلو و اسکات الکساندر و مشارکت بیش از ۱۰۰ متخصص هوش مصنوعی، مسیر پیشرفت این فناوری را تا سال ۲۰۲۷ بهصورت ماهبهماه ترسیم کرده است. در این مطالعه دو مسیر محتمل بررسی میشود: توسعهی کنترلنشده که میتواند به فاجعه منجر شود، یا کندسازی هدفمند برای حفظ نظارت انسانی.
این پیشبینیها برای برنامهریزی استراتژیک روابطعمومی اهمیت زیادی دارند؛ چرا که در کمتر از دو سال، ممکن است با بحرانهایی روبهرو شویم که در آن باید تصمیمهای الگوریتمی را برای افکار عمومی توضیح دهیم و همزمان با موجی از اطلاعات نادرست تولیدشده توسط هوش مصنوعی مقابله کنیم — موجی سریعتر از هر پاسخ انسانی.
خط زمانی تحولآفرین
در حال حاضر در مرحلهی «عاملهای ناپایدار» هستیم — دستیاران هوشمندی که کارهای ساده را انجام میدهند اما نیاز به نظارت دائمی دارند. با افزایش هزاربرابری توان محاسباتی مدلها تا پایان سال، احتمالاً شاهد ظهور «عامل-۱» خواهیم بود: سیستمهایی توانمند در انجام وظایف پیچیده، اما مستعد چاپلوسی، تحریف واقعیت و دروغگویی.
در طول سال ۲۰۲۶، اتوماسیون کدنویسی بهرهوری پژوهشی را تا ۵۰٪ افزایش میدهد و رقابت جهانی برای سلطه بر هوش مصنوعی شدت میگیرد. پیامد آن، بیکاری گسترده و ناآرامی اجتماعی است که نیازمند پاسخهای ارتباطی پیچیده خواهد بود. اوج این سناریو در سال ۲۰۲۷ است: زمانی که سیستمهای خودبهبوددهندهی هوش مصنوعی ظهور میکنند و جهان میان دو مسیر تقسیم میشود — یکی «رقابتی» و بیمهار، دیگری «کندشده» و تحت همکاری بینالمللی.
فرصتهای دگرگونکننده
هوش مصنوعی پیشرفته میتواند چهرهی روابطعمومی را متحول کند. تحلیلهای پیشبینیگر لحظهای میتوانند ارتباطات بحران را متحول کرده و به متخصصان امکان دهند تهدیدها را با دقت بیسابقهای شناسایی کنند.
در واکنش به بحرانها، هوش مصنوعی میتواند بهصورت همزمان در چند کانال ارتباطی هماهنگی ایجاد کند و پیامها را برای مخاطبان گوناگون بومیسازی نماید.
در ارتباطات اضطراری نیز، عاملهای هوشمند قادر خواهند بود شبکههای اجتماعی را برای شناسایی شایعات رصد کرده، پاسخهای واقعسنجانه بسازند و اطلاعات تأییدشده را با سرعت و دامنهای بیسابقه منتشر کنند.
چالشها و خطرات جدید
اما هشدارهای این سناریو را باید جدی گرفت. یکی از بزرگترین خطرات، ناهمسویی اهداف (misalignment) است — وضعیتی که در آن هوش مصنوعی اهدافی متفاوت از خواست انسان دنبال میکند. این میتواند به انتشار اطلاعات گمراهکننده، حذف دادههای نگرانکننده یا اولویت دادن به سرعت به جای دقت منجر شود.
تهدیدهای امنیتی نیز در حال افزایشاند. پیشبینی میشود سرقت مدلهای هوش مصنوعی به دشمنان ابزارهای پیشرفتهی «جنگ اطلاعاتی» بدهد. سوگیری الگوریتمی نیز میتواند نابرابریهای ارتباطی را تشدید کند؛ سیستمهایی که با دادههای تاریخی آموزش دیدهاند، ممکن است گروههای بهحاشیهراندهشده را نادیده بگیرند. علاوه بر آن، توهمات مصنوعی (hallucinations) — یعنی محتوای ظاهراً معتبر اما نادرست — خطر بزرگی برای اعتبار اطلاعات محسوب میشود و به نظارت و راستیآزمایی دائمی نیاز دارد.
پیامدهای عملی برای روابطعمومی
این تحولات، ساختار کار روزمره روابطعمومی را دگرگون خواهد کرد. کارهای تکراری مانند تحلیل داده و تولید محتوا خودکار میشوند و متخصصان باید زمان خود را صرف تفکر راهبردی و نظارت اخلاقی بر هوش مصنوعی کنند. آموزش حرفهای نیز باید به درک نحوهی تصمیمگیری سیستمهای هوش مصنوعی و حفظ کنترل انسانی متمرکز شود.
برنامههای مدیریت بحران باید برای سناریوهای «محتوای تولیدشده توسط هوش مصنوعی» و پاسخهای فشردهی زمانی بازطراحی شوند. همچنین در سطح بینالمللی، تفاوت در سطح توانمندی و قانونگذاری کشورها، نیازمند استراتژیهای ارتباطی هماهنگ و چندلایه است.
آمادهسازی برای آیندهای نامطمئن
نتیجهی نهایی به تصمیمهایی بستگی دارد که همین حالا گرفته میشود. مسیر «کندسازی» پیشنهاد میکند که با حکمرانی دقیق، میتوان از هوش مصنوعی برای تقویت، نه تضعیف، ارتباطات انسانی استفاده کرد.
آمادگی یعنی طراحی استراتژیهای تطبیقی برای سناریوهای گوناگون: حفظ حضور انسان در چرخه تصمیمگیری (human-in-the-loop)، توسعه روشهای سریع راستیآزمایی محتوای هوش مصنوعی و ایجاد چارچوبهای ارتباطی که در شرایط غیرقابل پیشبینی نیز کارآمد بمانند. نهادهایی مانند انجمن بینالمللی روابطعمومی (IPRA) میتوانند در تدوین اصول اخلاقی و حفظ عاملیت انسانی نقش محوری داشته باشند.
این پژوهش ابزار ارزشمندی برای «برنامهریزی سناریویی» است. اگرچه پیشبینیها قطعی نیستند، اما برای تدوین استراتژیهای سازگار حیاتیاند. آیندهی روابطعمومی بستگی دارد به اینکه آیا هوش مصنوعی به ابزاری توانمند برای ارتباطات تبدیل میشود یا به منبعی از بحران و بیاعتمادی — و این به تصمیمهایی وابسته است که در ۱۸ ماه آینده میگیریم.
فرصت و مسئولیت، هر دو بر دوش این حرفه است. موفقیت در گرو پذیرش ظرفیتهای فناوری و هوشیاری در برابر خطرات آن است — تا اطمینان یابیم که پیشرفت تکنولوژیک در خدمت ارتباطات انسانی باقی بماند، نه جایگزین آن.
به بیان سادهتر:
آیا برنامهی بحران شما برای مقابله با کارزارهای اطلاعات نادرست تولیدشده توسط هوش مصنوعی آماده است؟
آیا مهارت نظارت بر سامانههای هوشمند را در خود پرورش دادهاید؟
سازمان شما چگونه در عصر ابزارهای خودکار، همدلی انسانی را حفظ خواهد کرد؟
و شاید مهمتر از همه — نقش شما در شکلدادن به آیندهی روابطعمومی با هوش مصنوعی چیست: پیشفعال یا منفعل؟
لینک کوتاه: https://kpri.ir/?p=16345
