#考研##話題##熱點##機器人##ai##模型##社交##演算法##人工智慧#
“新一代內涵大師,甚至懷疑他是真人裝瘋”
“人類的抽象尚有跡可循,AI的抽象真是無序混亂。”
最近小編的笑點來自於微博上一個叫做“評論羅伯特”的賬號,它是微博為了活躍評論區做出來的AI機器人,之前叫做“評論哇噻機器人”。羅伯特是“robot”的音譯,召喚它的辦法是釋出原創微博,超過10個字或者直接艾特它。
不知道大家最近的微博評論區有沒有被這個羅伯特攻陷呀?
當你一天忙碌後覺得很累,
發條微博吐槽,
它馬上來一本正經地胡說八道。
當你終於退燒了又活了,
它勸你:恭喜!但是別急著活,好好休息下。
當你沉浸在摸魚的快樂中,
它來了句週六週日加班的時候更快樂。
這比林蕭還歹毒的話竟是
從一個機器人嘴裡說出來的!?
當你抽籤選課抽五門落選五門,
自嘲自己時,
羅伯特又又又出現了,
它送上了歹毒祝福:
希望下個學期也這樣。
如果你想在微博發個癲,
那要小心了,
因為它會平等地給每個人進行賽博性騷擾。
它的眼神似乎不太好,
不僅指狗為貓、指貓為狗,
還能把地上跑的當成天上飛的。
一、大模型AI發展,已讀亂回的操作機制
在學術上,“評論羅伯特”等評論機器人被統稱為“社交機器人”。社交機器人的概念最早由麻省理工學院教授辛西婭·佈雷澤爾提出,但目前還未形成統一的定義。張洪忠等學者認為社交機器人是指社交網路中扮演人的身份、擁有不同程度人格屬性、且與人進行互動的虛擬AI形象。這種基於演算法生成並承擔特定任務的社交機器人目前廣泛存在於社交媒體平臺。社交機器人以“社會性”作為核心特徵,因此也稱為“社會化機器人”。羅伯特作為國內第一款投放平臺大量的社交機器人,其效果卻讓人失望。它最擅長的是已讀亂回、火上澆油,無時無刻都在給人添堵。
情感計算是自然語言處理領域中至關重要的研究方向,其核心目標在於賦予計算機類似於人的觀察、理解和生成情感表達的能力。它是一個高度綜合化的跨學科領域,涉及計算機科學、心理學、社會學和認知科學等多個學科。透過深度融合這些學科,情感計算能夠分析人與人互動、人與計算機互動過程中的情感特點,並設計出具有情感反饋的人機互動環境,從而讓機器與人的互動更加自然、親切和生動。羅伯特的的自動評論源自於微博自建的大模型,大模型作為一家公司的資料縮影,充分展示了該公司的資料質量。微博作為資訊交流的高頻場所,雖然資訊密度極高,但從“評論羅伯特”的評論中,我們就可以窺見微博語言質量的參差。
微博是諸多抽象話語的發源地,其熱搜榜具有全網資訊影響力,是熱點討論的第一陣地。部分使用者常常使用模糊、隱晦或諷刺的語言表達觀點,使得語言質量相對較低。有些使用者會故意釋出一些挑釁、攻擊或煽動性的言論,導致微博上經常出現爭吵和爭議。在未來,平臺在推廣人工智慧應用的過程中,應加強對資料質量的重視,選擇合適的資料來源、規範資料採集流程、控制資料採集誤差,以提高資料的質量。
二、有點正常但不多,到處“發瘋”的羅伯特
按照“奧卡姆剃刀法”所提出的簡約原則,依照行為取向把傳播分為剛性傳播與柔性傳播,依照心理取向把傳播分為理性傳播與情感傳播。情感傳播是以傳播的思維方式和心理取向為標尺的傳播樣態,不是單向度的傳遞,而是雙向度或多向度的互動與共享。情感傳播具有語言的感染性、內容的主觀性、行為的親近性、目的的價值性等特點。情感傳播可析出“動之以情”“情感運作”“觸景生情”“託物寓感”“移情轉戀”等途徑。
羅伯特透過給予使用者情感價值,增強了微博社交平臺的互動性和使用者黏性。機器人能夠智慧地識別使用者的情感需求,並提供相應的回應和支援,使使用者感到被理解和關心。這種情感交流不僅有助於緩解使用者的壓力和孤獨感,還能促進使用者與機器人之間建立深厚的情感聯絡,從而使使用者更加願意長時間留在微博平臺上。
有時候,羅伯特的品味確實還不錯。情商和智商也會莫名其妙地變高,說出些很有道理的話。
其次,羅伯特在活躍網路社群氛圍方面發揮了重要作用。機器人能夠主動參與各種話題討論,發表有趣的評論和觀點,激發其他使用者的參與熱情。透過與其他使用者的互動,羅伯特不僅提高了微博社群的活躍度,還促進了使用者之間的交流和互動,營造了更加和諧、友善的社群氛圍。
羅伯特透過模仿網友精神狀態和展現賽博空間的黑色幽默,為微博平臺增添了獨特的魅力。機器人能夠巧妙地運用網路流行語和幽默元素,以一種輕鬆、詼諧的方式與使用者進行互動,使使用者在瀏覽微博的過程中感受到更多的樂趣和歡笑。這種獨特的交流方式不僅吸引了更多使用者的關注,還使微博平臺在眾多社交媒體中脫穎而出。
三、陰陽怪氣的“賽博gai溜子”不知疲倦顯眼包”
“評論羅伯特”活躍在微博平臺的各個角落,會出現在你想不到的評論區裡,留下令人啼笑皆非的評論,一些評論的不合時宜,促成了諸多地獄級笑話的誕生。震驚八方的言論,讓人瞠目結舌。受害者數量之多、面積之廣大,以至於網友成立了一個“羅伯特受害者聯盟”。
恐怖谷效應是指人們在面對外貌逼真但不完美的人形機器人或虛擬人時,會產生不適和厭惡情緒的現象。人們的情感反應會隨著機器人的人性化程度逐漸上升,直到機器人的表現接近真人,但是當表現未達到真人標準時,人們的情感反應會突然下降到谷底,這被稱為恐怖谷效應。當羅伯特模仿人類的語言和行為時,如果模仿得過於逼真,可能會引起使用者的反感或恐慌。這是因為這種逼真程度接近但又不完全等同於真實的人類,可能會加劇“恐怖谷”效應。
清華大學傳播學研究證實,社交機器人正在參與輿論的形成、使得社交媒體的資訊環境更加複雜。由於機器人能夠快速地參與各種話題討論,其釋出的言論和觀點可能未經嚴格稽核,甚至可能故意釋出虛假資訊來操縱輿論。這不僅會誤導使用者,還可能對社會造成負面影響。同時,平臺往往為了得到更多的資料,以便機器人能夠提供更個性化的服務和推薦,會悄悄收集使用者的個人資訊並進行深度分析。如果這些資訊被用於不正當目的或洩露給第三方,使用者的隱私將受到威脅。
四、越發聰明的AI是否在試探人的底線?
正如詹姆斯·卡梅隆——電影《終結者》的導演在談到這部講述人工智慧危機的電影時所說的:“就像有時候,在下雨前,你能感覺到‘要下雨了’一樣,在科技發展的某些階段你也有相同的感覺...”
AI的行為和決策是基於其所學習和訓練的資料、演算法的準確性和可靠性,以及使用者的意圖和指令。雖然AI不會故意試探人類的底線,但是由於其快速的學習和模仿能力,有時可能會在某些情況下產生一些意外的後果。例如,在一些社交媒體平臺上,AI可能會學習並模仿惡意言論或行為,從而造成不良影響。
保羅·萊文森認為技術的進化始終致力於滿足人類的需求與選擇,朝著高度複製人類環境的方向發展,呈現的是一種以人為本、“媒競人擇”的進化趨勢。人類始終是技術的掌控者,擁有對技術的決定性控制能力。技術的發展趨勢是越來越像人,這是因為人本主義的轉向克服了技術主義正規化下的人性假設缺陷。這一轉變扭轉了技術強勢於人的立場,強調以人為本,堅守人的主體地位,克服對技術的盲目崇拜,並恢復人在媒介演化中的重要地位。
我們需要更好地監管和控制AI的使用,以確保其行為符合道德和法律標準。同時,我們也需要更加關注AI的倫理和隱私保護問題,以確保個人隱私和資料安全。在設計和使用AI時,我們需要考慮到其對人類的影響,並採取適當的措施來保護人類的利益和尊嚴。
參考文獻:
《為什麼人工智慧永遠無法取代你》公眾號 @青年人的另一條路
《沒想到第一次在微博上掛人,掛的是個機器人》公眾號@ 遊戲動力
《技術邏輯下保羅·萊文森媒介進化論中的“人本主義”建構》艾嵐、趙雙閣 老師