هوش مصنوعي مي تواند باور به تئوري توطئه را تغيير دهد
آي تي من- دكتر توماس كاستلو، يكي از نويسندگان مطالعه اي كه در اين زمينه انجام شده است، گفت: باور رايج اين است كه افراد معتقد به تئوري هاي توطئه، به ندرت ديدگاه شان را تغيير مي دهند. تصور مي شود اين امر به دليل نيازهاي مختلف افراد به چنين باورهايي است. با اين حال، مطالعه جديد ديدگاه متفاوتي ارائه مي دهد.
محققان اعلام كردند يك سيستم هوش مصنوعي مي تواند با استفاده از طيف وسيعي از اطلاعات، گفت وگوهايي را توليد كند كه تفكر انتقادي را تشويق كرده و استدلال هاي مبتني بر واقعيت ارائه دهد.
كاستلو گفت: هوش مصنوعي ما از قبل مي دانست كه فرد به چه چيزي باور دارد و به همين دليل توانست روش متقاعد كردن خود را با سيستم اعتقادي دقيق او تنظيم كند.
كاستلو و همكارانش در مجله Science گزارش دادند كه چگونه مجموعه اي از آزمايش ها را با مشاركت 2190 نفر كه به تئوري هاي توطئه باور داشتند انجام دادند.
در اين آزمايش ها از همه شركت كنندگان خواسته شد تا يك تئوري توطئه خاص را كه به آن اعتقاد داشتند و شواهدي كه فكر مي كردند از آن حمايت مي كند، توصيف كنند. اين توصيف ها سپس به يك سيستم هوش مصنوعي به نام «DebunkBot» داده شد.
همچنين از شركت كنندگان خواسته شد تا در يك مقياس 100 امتيازي ميزان صحت تئوري توطئه را ارزيابي كنند.
سپس آن ها آگاهانه يك گفت وگوي سه دوره اي با سيستم هوش مصنوعي در مورد تئوري توطئه خود يا يك موضوع غير توطئه انجام دادند. پس از آن، شركت كنندگان بار ديگر ميزان صحت تئوري توطئه خود را ارزيابي كردند.
نتايج نشان داد كه كساني كه در مورد موضوعات غير توطئه بحث كردند، پس از آن رتبه «حقيقت» خود را كمي كاهش دادند. با اين حال، كساني كه با هوش مصنوعي در مورد تئوري توطئه خود بحث كردند، به طور متوسط، 20 درصد كاهش در باور خود به آن موضوع را گزارش كردند.
تيم تحقيقاتي اعلام كرد كه به نظر مي رسد اثرات اين گفتگو حداقل دو ماه ادامه خواهد داشت.
محققان افزودند كه اندازه اثر به عواملي مانند اهميت باور براي شركت كننده و اعتماد او به هوش مصنوعي بستگي دارد.
كاستلو گفت: حدود يك نفر از هر چهار نفري كه آزمايش را با باور به يك تئوري توطئه آغاز كردند، در حالي آزمايش را به پايان رساندند كه ديگر به آن تئوري توطئه باور نداشتند.