هراس اجتماعی از هوش مصنوعی

هراس اجتماعی از هوش مصنوعی

در كنار هیجان كاربردهای شگفت‌انگیز و خیره‌كننده تكنولوژی جدید هوش مصنوعی، هراس اجتماعی از كاربردهای منفی و پیامدهای آسیب‌زای آن نیز در میان نظریه‌پردازان، نخبه‌ها و عامه مردم افزایش یافته است. این هراس و نگرانی اجتماعی را می‌توان در سه چالش مهم خلاصه نمود.

دنیای قلم -علی میرزامحمدی : در كنار هیجان كاربردهای شگفت‌انگیز و خیره‌كننده تكنولوژی جدید هوش مصنوعی، هراس اجتماعی از كاربردهای منفی و پیامدهای آسیب‌زای آن نیز در میان نظریه‌پردازان، نخبه‌ها و عامه مردم افزایش یافته است. این هراس و نگرانی اجتماعی را می‌توان در سه چالش مهم خلاصه نمود.  


چالش تمایز بین محتوای اصیل و جعلی: هوش مصنوعی این توانایی را فراهم می‌كند كه محتوایی ساختگی و جعلی با حضور مجازی افراد ساخته شود. به عبارت دیگر این محتوای جعلی، بازتاب عینی فضای واقعی نیست بلكه با اقتباس از ویژگی‌های افراد، آنها را در موقعیتی كه در آن حضور ندارند به تصویر می‌كشد. در این حالت ممكن است رفتارها، گفتارها و اندیشه‌هایی باورپذیر به دروغ به فرد منتسب شود كه تشخیص جعلی و واقعی بودن آن كار چندان ساده‌ای نباشد. این چالش قبل از رشد تكنولوژی هوش مصنوعی در نظریه‌های پست‌مدرن همانند نظریه بودریار نیز مطرح شده است. او در این باب از كلیدواژه فراواقعیت یا واقعیت حاد یا ابرواقعیت (hyperreality) بهره می‌گیرد تا عدم توانایی انسان را در افتراق واقعیت از خیال به ویژه در فرهنگ‌های پست‌مدرن با تكنولوژی‌های در سطح پیشرفته توضیح دهد.
چالش كنترل و نظارت: از هم‌اكنون نیز بهره‌گیری از تكنولوژی هوش مصنوعی در كار شناسایی افراد و گروه‌های مخالف توسط برخی دولت‌ها به نگرانی‌های عمیقی دامن زده است كه آینده مردم‌سالاری را در حال تهدید و تضعیف به تصویر می‌كشد. در این باب نیز بهره‌گیری از نظریه فوكو درباره نظارت (مراقبت) و آنچه او سراسربینی می‌نامد می‌تواند روشنگر باشد. از نظر فوكو، اشكال جدید دانش به اشكال جدید قدرت و كنترل منتهی می‌شود. با الهام از نظریه فوكو هوش مصنوعی می‌تواند به ابزار مراقبت و كنترل دایمی تبدیل شود. به عبارت دیگر هوش مصنوعی همانند زندان و دیگر نهادهای قدرتمند اجتماعی، كاركرد سراسربینی دارد. 

این تكنولوژی هم می‌تواند منتقدانی را كه در شبكه‌های اجتماعی نمی‌خواهند هویت خود را فاش كنند شناسایی كند و هم این توانایی را دارد كه محتواهایی منتسب به گروه‌ها و افراد منتقد در فضای مجازی جعل و بازنشر كند كه برای عامه مخاطبان باورپذیر باشد. 
چالش انسان‌زدایی: چالش سوم كاربرد هوش مصنوعی از دو چالش دیگر هراس‌برانگیزتر است. این چالش بیان می‌كند كه هوش مصنوعی شرایطی را فراهم می‌كند كه در آن بسیاری از مشاغلی كه نیازمند به‌كارگیری اندیشه و ذوق است و هر تخصصی كه برای كسب آن تلاش و سختی سال‌ها كشیده شده را بلااستفاده می‌كند. این انسان‌زدایی آینده‌ای وحشتناك و چالش‌برانگیز را نشان می‌دهد كه انتقادها از كاربرد هوش مصنوعی را به اوج می‌كشاند.
از دیدگاه نویسنده تكمیل تدریجی سناریوهای كاربردهای مثبت و آسیب‌زای هوش مصنوعی به ما كمك می‌كند تا درباره كنترل كاربرد این تكنولوژی آمادگی بیشتری داشته باشیم. به نظر می‌رسد به تدریج حقوق كاربرد این تكنولوژی در سطوح فردی، گروهی، ملی و بین‌المللی توسعه پیدا كند؛ چراكه كاربردهای منفی این تكنولوژی جرایم نوپدیدی را شكل خواهد داد. از طرف دیگر چالش كنترل و نظارت به توسعه مباحث جدید سیاسی و جامعه شناختی خواهد انجامید و گروه‌های مدافع حقوق بشر و نهادهای بین‌المللی مدافع آزادی بیان و فعالیت‌های سیاسی را برخواهد داشت تا علیه این نظارت تكنولوژیكی فعال شوند.
از دیدگاه نویسنده چالش تمایز بین محتوای اصیل و جعلی موجب خواهد شد تا در آینده تكنولوژی‌هایی كه در كار این تمایز به كاربران كمك می‌كنند توسعه پیدا كنند. این مساله هم در نهادهای پلیسی و قضایی به یكی از دغدغه‌های مهم تبدیل خواهد شد.  اما چالش انسان‌زدایی هم در سطح نظری و هم عملی حساسیت‌های اجتماعی را علیه تكنولوژی هوش اجتماعی افزایش خواهد داد. این چالش از نظر روانی و جسمی، منشأ و عامل بیماری‌های مختلفی خواهد بود. همچنین گروه‌ها و اتحادیه‌های شغلی و صنفی نگرانی عمیقی درباره آینده این تكنولوژی پیدا خواهند كرد.
با وجود این هراس‌ها و چالش‌های مهم، به اذعان متخصان، كاربرد هوش مصنوعی فرصت‌های جدیدی را به روی ما گشوده است كه به این راحتی نمی‌توان آنها را نادیده گرفت. با این‌همه لذت این فرصت‌های جدید نباید با كاربردهای منفی تلخ شود.

 

 

کلید واژه
دیدگاه‌ها

نظراتی كه به تعميق و گسترش بحث كمك كنند، پس از مدت كوتاهی در معرض ملاحظه و قضاوت ديگر بينندگان قرار مي گيرد. نظرات حاوی توهين، افترا، تهمت و نيش به ديگران منتشر نمی شود.