دنیای قلم -علی میرزامحمدی : در كنار هیجان كاربردهای شگفتانگیز و خیرهكننده تكنولوژی جدید هوش مصنوعی، هراس اجتماعی از كاربردهای منفی و پیامدهای آسیبزای آن نیز در میان نظریهپردازان، نخبهها و عامه مردم افزایش یافته است. این هراس و نگرانی اجتماعی را میتوان در سه چالش مهم خلاصه نمود.
چالش تمایز بین محتوای اصیل و جعلی: هوش مصنوعی این توانایی را فراهم میكند كه محتوایی ساختگی و جعلی با حضور مجازی افراد ساخته شود. به عبارت دیگر این محتوای جعلی، بازتاب عینی فضای واقعی نیست بلكه با اقتباس از ویژگیهای افراد، آنها را در موقعیتی كه در آن حضور ندارند به تصویر میكشد. در این حالت ممكن است رفتارها، گفتارها و اندیشههایی باورپذیر به دروغ به فرد منتسب شود كه تشخیص جعلی و واقعی بودن آن كار چندان سادهای نباشد. این چالش قبل از رشد تكنولوژی هوش مصنوعی در نظریههای پستمدرن همانند نظریه بودریار نیز مطرح شده است. او در این باب از كلیدواژه فراواقعیت یا واقعیت حاد یا ابرواقعیت (hyperreality) بهره میگیرد تا عدم توانایی انسان را در افتراق واقعیت از خیال به ویژه در فرهنگهای پستمدرن با تكنولوژیهای در سطح پیشرفته توضیح دهد. چالش كنترل و نظارت: از هماكنون نیز بهرهگیری از تكنولوژی هوش مصنوعی در كار شناسایی افراد و گروههای مخالف توسط برخی دولتها به نگرانیهای عمیقی دامن زده است كه آینده مردمسالاری را در حال تهدید و تضعیف به تصویر میكشد. در این باب نیز بهرهگیری از نظریه فوكو درباره نظارت (مراقبت) و آنچه او سراسربینی مینامد میتواند روشنگر باشد. از نظر فوكو، اشكال جدید دانش به اشكال جدید قدرت و كنترل منتهی میشود. با الهام از نظریه فوكو هوش مصنوعی میتواند به ابزار مراقبت و كنترل دایمی تبدیل شود. به عبارت دیگر هوش مصنوعی همانند زندان و دیگر نهادهای قدرتمند اجتماعی، كاركرد سراسربینی دارد.
این تكنولوژی هم میتواند منتقدانی را كه در شبكههای اجتماعی نمیخواهند هویت خود را فاش كنند شناسایی كند و هم این توانایی را دارد كه محتواهایی منتسب به گروهها و افراد منتقد در فضای مجازی جعل و بازنشر كند كه برای عامه مخاطبان باورپذیر باشد. چالش انسانزدایی: چالش سوم كاربرد هوش مصنوعی از دو چالش دیگر هراسبرانگیزتر است. این چالش بیان میكند كه هوش مصنوعی شرایطی را فراهم میكند كه در آن بسیاری از مشاغلی كه نیازمند بهكارگیری اندیشه و ذوق است و هر تخصصی كه برای كسب آن تلاش و سختی سالها كشیده شده را بلااستفاده میكند. این انسانزدایی آیندهای وحشتناك و چالشبرانگیز را نشان میدهد كه انتقادها از كاربرد هوش مصنوعی را به اوج میكشاند. از دیدگاه نویسنده تكمیل تدریجی سناریوهای كاربردهای مثبت و آسیبزای هوش مصنوعی به ما كمك میكند تا درباره كنترل كاربرد این تكنولوژی آمادگی بیشتری داشته باشیم. به نظر میرسد به تدریج حقوق كاربرد این تكنولوژی در سطوح فردی، گروهی، ملی و بینالمللی توسعه پیدا كند؛ چراكه كاربردهای منفی این تكنولوژی جرایم نوپدیدی را شكل خواهد داد. از طرف دیگر چالش كنترل و نظارت به توسعه مباحث جدید سیاسی و جامعه شناختی خواهد انجامید و گروههای مدافع حقوق بشر و نهادهای بینالمللی مدافع آزادی بیان و فعالیتهای سیاسی را برخواهد داشت تا علیه این نظارت تكنولوژیكی فعال شوند. از دیدگاه نویسنده چالش تمایز بین محتوای اصیل و جعلی موجب خواهد شد تا در آینده تكنولوژیهایی كه در كار این تمایز به كاربران كمك میكنند توسعه پیدا كنند. این مساله هم در نهادهای پلیسی و قضایی به یكی از دغدغههای مهم تبدیل خواهد شد. اما چالش انسانزدایی هم در سطح نظری و هم عملی حساسیتهای اجتماعی را علیه تكنولوژی هوش اجتماعی افزایش خواهد داد. این چالش از نظر روانی و جسمی، منشأ و عامل بیماریهای مختلفی خواهد بود. همچنین گروهها و اتحادیههای شغلی و صنفی نگرانی عمیقی درباره آینده این تكنولوژی پیدا خواهند كرد. با وجود این هراسها و چالشهای مهم، به اذعان متخصان، كاربرد هوش مصنوعی فرصتهای جدیدی را به روی ما گشوده است كه به این راحتی نمیتوان آنها را نادیده گرفت. با اینهمه لذت این فرصتهای جدید نباید با كاربردهای منفی تلخ شود.