در کنار هیجان کاربردهای شگفت انگیز و خیره کننده تکنولوژی جدید هوش مصنوعی، هراس اجتماعی از کاربردهای منفی و پیامدهای آسیب زای آن نیز در میان نظریه پردازان، نخبه ها و عامه مردم افزایش یافته است. این هراس و نگرانی اجتماعی را می توان در سه چالش مهم خلاصه نمود:
چالش تمایز بین محتوای اصیل و جعلی: هوش مصنوعی این توانایی را فراهم می کند که محتوایی ساختگی و جعلی با حضور مجازی افراد ساخته شود. به عبارت دیگر این محتوای جعلی، بازتاب عینی فضای واقعی نیست بلکه با اقتباس از ویژگی های افراد، آنها را در موقعیتی که در آن حضور ندارند به تصویر می کشد. در این حالت ممکن است رفتارها، گفتارها، و اندیشه هایی باورپذیر به دروغ به فرد منتسب شود که تشخیص جعلی و واقعی بودن آن کار چندان ساده ای نباشد.
این چالش قبل از رشد تکنولوژی هوش مصنوعی در نظریه های پست مدرن همانند نظریه بودریار نیز مطرح شده است. او در این باب از کلیدواژه فراواقعیت یا واقعیت حاد و یا ابرواقعیت (hyperreality ) بهره می گیرد تا عدم توانایی انسان را در افتراق واقعیت از خیال به ویژه در فرهنگهای پست مدرن با تکنولوژیهای در سطح پیشرفته توضیح دهد.
چالش کنترل و نظارت: از هم اکنون نیز بهره گیری از تکنولوژی هوش مصنوعی در کار شناسایی افراد، و گروه های مخالف توسط برخی دولتها به نگرانی های عمیقی دامن زده است که آینده مردم سالاری را در حال تهدید به تصویر می کشد. در این باب نیز بهره گیری از نظریه فوکو درباره نظارت (مراقبت) و آن چه که او سراسربینی می نامد می تواند روشنگر باشد.
از نظر فوکو، اَشکال جدید دانش به اَشکال جدید قدرت و کنترل منتهی می شود. با الهام از نظریه فوکو هوش مصنوعی می تواند به ابزار مراقبت و کنترل دائمی تبدیل شود. به عبارت دیگر هوش مصنوعی همانند زندان و دیگر نهادهای قدرتمند اجتماعی، کارکرد سراسربینی دارد. این تکنولوژی هم می تواند منتقدانی را که در شبکه های اجتماعی نمی خواهند هویت خود را فاش کنند شناسایی کند و هم این توانایی را دارد که محتواهایی منتسب به گروه ها و افراد منتقد در فضای مجازی جعل و بازنشر کند که برای عامه مخاطبان باورپذیر باشد.
چالش انسان زدایی: چالش سوم کاربرد هوش مصنوعی از دو چالش دیگر هراس برانگیزتر است. این چالش بیان می کند که هوش مصنوعی شرایطی را فراهم می کند که در آن بسیاری از مشاغلی که نیازمند به کارگیری اندیشه و ذوق است و هر تخصص و مهارتی را که سالها برای ان رنج و تلاش صرف شده بلااستفاده می کند. این انسان زدایی، آینده ای وحشتناک و چالش برانگیز را نشان می دهد که انتقادها از کاربرد هوش مصنوعی را به اوج می کشاند.
تکمیل تدریجی سناریوهای کاربردهای مثبت و آسیب زای هوش مصنوعی به ما کمک می کند تا درباره کنترل کاربرد این تکنولوژی آمادگی بیشتری داشته باشیم.
به نظر می رسد به تدریج حقوق کاربرد این تکنولوژی در سطوح فردی، گروهی، ملی و بین المللی توسعه پیدا کند؛ چراکه سو کاربرد این تکنولوژی جرایم نوپدیدی را شکل خواهد داد. از طرف دیگر چالش کنترل و نظارت به توسعه مباحث جدید سیاسی و جامعه شناختی خواهد انجامید و گروه های مدافع حقوق بشر و نهادهای بین المللی مدافع آزادی بیان و فعالیت های سیاسی را برخواهد داشت تا علیه این نظارت تکنولوژیکی فعال شوند.
از دیدگاه نویسنده چالش تمایز بین محتوای اصیل و جعلی موجب خواهد شد تا در آینده تکنولوژی هایی که در کار این تمایز به کاربران کمک می کنند توسعه پیدا کنند. این مساله هم در نهادهای پلیسی و قضایی به یکی از دغدغه های مهم تبدیل خواهد شد.
اما چالش انسان زدایی هم در سطح نظری و هم عملی حساسیت های اجتماعی را بر علیه تکنولوژی هوش اجتماعی افزایش خواهد داد. این چالش از نظر روانی و جسمی منشاء و عامل بیماری های مختلفی خواهد بود. همچنین گروه ها و اتحادیه های شغلی و صنفی نگرانی عمیقی درباره آینده این تکنولوژی پیدا خواهند کرد.
با وجود هراس ها و چالش های مهم، به اذعان متخصان کاربرد هوش مصنوعی فرصت های جدیدی را به روی ما گشوده است که به این راحتی نمی توان آنها را نادیده گرفت. با اینهمه لذت این فرصت های جدید نباید با کاربردهای منفی تلخ شود.