A mesterséges intelligencia alapú tartalomszűrő algoritmusok társadalmi hatásai, különös tekintettel a közösségimédia-platformokra
Az online kommunikációs terek, különösen a közösségi média platformok az információáramlás domináns eszközeivé váltak, ám egyre inkább ki vannak téve a szélsőséges ideológiák, jogsértő, esetenként felkavaró tartalmak terjedésének. Az ilyen platformok egyre inkább mesterséges intelligencia alapú algo...
| Main Author: | |
|---|---|
| Format: | Article | 
| Published: | 2025 | 
| Series: | IUSTUM AEQUUM SALUTARE
              21 No. 3 | 
| doi: | 10.69695/ias.2025.3.11 | 
| mtmt: | 36394857 | 
| Online Access: | https://publikacio.ppke.hu/2791 | 
| Summary: | Az online kommunikációs terek, különösen a közösségi média platformok az információáramlás domináns eszközeivé váltak, ám egyre inkább ki vannak téve a szélsőséges ideológiák, jogsértő, esetenként felkavaró tartalmak terjedésének. Az ilyen platformok egyre inkább mesterséges intelligencia alapú algoritmusokat alkalmaznak a tartalmak szűrésére és moderálására, hogy kezeljék ezeket a kihívásokat. E tanulmány célja röviden, de átfogó képet adva bemutatni az automatizált tartalommoderálás elterjedésének okait, technikai megoldásait, valamint társadalmi hatásait. A tanulmány részletesen tárgyalja a jogi környezetet, amely lehetővé tette ezeknek a rendszereknek a térnyerését, bemutatja a leggyakrabban alkalmazott technikai módszereket, és elemzi, hogyan befolyásolják ezek a szólásszabadságot, a társadalmi diskurzust, valamint a politikai polarizációt. Az eredmények rávilágítanak arra, hogy bár a mesterséges intelligencia jelentős mértékben növelheti a moderálás hatékonyságát, alkalmazása komoly kihívásokkal és kockázatokkal jár, amelyek hatással vannak a demokratikus értékekre és a közösségi média működésére. A tanulmányt javaslatokat zárják, kiemelve a szabályozás és az emberi felügyelet fontosságát, hogy biztosítható maradjon a szólásszabadság védelme és a társadalmi sokszínűség megőrzése is az online térben. Online communication spaces, especially social media platforms, have become the dominant means of information flow, but they are increasingly exposed to the spread of extremist ideologies, illegal and sometimes disturbing content. Such platforms are increasingly using AI-based algorithms to filter and moderate content to address these challenges. The purpose of this study is to provide a comprehensive picture of the reasons for the spread of automated content moderation, its technical solutions, and its social effects. The study discusses in detail the legal environment that allowed these systems to take off, presents the most used technical methods, and analyzes how they affect freedom of speech, social discourse, and political polarization. The results highlight that although artificial intelligence can significantly increase the effectiveness of moderation, its use involves serious challenges and risks that affect democratic values and the functioning of social media. The study also makes recommendations on the importance of regulation and human oversight to ensure the protection of free speech and the preservation of social diversity in the online space. | 
|---|---|
| Physical Description: | 20 177-196 | 
| ISSN: | 1787-3223 |