
中科聞歌源自中科院,創始團隊2007年在自動化研究所承擔國家互聯網大數據的各種項目,沉淀了技術和產品。2017年中科院鼓勵科學家創業,走出了舒適區,經過市場化的洗禮,一路走來,得到了中科院基金、中網投、央視新媒體基金等國家資本的投資,又紅又專的人工智能領先企業。去年研發訓練了雅意大語言模型,今年8月底發布YOYA多模態文生視頻平臺。
聞歌的大數據和人工智能技術積累,針對不同行業的場景需求,推出紅旗融媒體智能平臺,晴天多模態媒體洞察平臺,多投智能投研平臺等系列產品方案,賦能千行百業。研發服務多個國家級標桿項目,中間是全球輿論態勢感知平臺。
今年2月,OpenAI的Sora發布,讓內容產業的從業人員感到驚艷和震撼!Sora作為一個素材生成器拓展了素材獲取的途徑,但大模型賦能多媒體內容創作仍需要做大量工作。我們把多媒體內容的生產過程拆解,就可以看到,AI 好像還可以干很多事情,從創意腳本到分鏡到素材檢索到旁白配音到剪輯等等。直接使用AI工具輔助內容生產的體驗并不是特別好!這很正常!因為OpenAI發布Chatgpt、Sora是在走通用人工智能之路,而不是為內容產業量身定制的系統。這需要我們這樣的人工智能企業深入到內容產業的場景中,根據需求和高質量的數據研發訓練各種系統工具。
內容生產離不開文圖音視四種模態。第一代創意制作全由人工實現,比如說:靠人的寫文字+手繪圖發行報紙書籍;第二代:人工創意+輔助制作工具,比如說:電腦軟件Word,PS、AE輔助創作;第三代:人與AI共創新模式,AI既是人靈感的拓展,也是創作的伙伴。比如說:你有一個想法扔給AI,他可以給你編腳本,給你出視頻,這就變成你的創意,這是一個人和AI共創的新時代!
中科聞歌研發推出了國產自主可控的雅意大語言模型1.0、2.0、3.0;YOYA讓AI生成有價值視頻;應用在視頻創作全鏈路,比如說:無中生有,30s一鍵生成視頻;有中生優,媒資庫素材一鍵成片;
很多媒體領導跟我們交流時,都談到一個痛點剛需,媒體多年積累了很多高質量的圖文視聽語料,要花大量的人力財力進行標注治理,才能方便后面的同事,找得到某一段要用的視頻或鏡頭。而且數據不能出域,每年上萬小時的圖文視聽語料需要加工,耗時耗錢,才能成為數據資產,可以交易。記者們有了創意,查閱內部各種資料時,也存在這樣的剛需痛點。優雅(YoYa)的多模態內容理解與編目技術能力,可以幫到大家。我們看這個視頻,優雅可以從主題、景別、運鏡、場景、節奏來把這個視頻讀懂,進行自動化的標注編目,節約大量成本,形成自己多模態的語料素材庫,即方便查找,方便二次創作;又能轉售給其他需要的單位,通過數據交易獲得新收入。
雅意Agent的技術能力,實現人機混合的群體智能;中科聞歌的聯合創始人曾大軍所長,90年代在美國卡耐基梅倫大學讀博士專門學習人工智能時,他的導師是agent 主要推動者之一。2017年創立中科聞歌的時候他還不是自動化研究所副所長,現在兼任中科院基礎能力局副局長。中科聞歌在智能體方面的技術積累是非常豐厚。怎么玩?比如說:您要編一本書,可以根據創意生成大綱,有不同章節,然后扔給不同的智能體,去生成不同章節的內容,反復干,直到滿意。
所以我們提出“人工+智能”共創內容產業新范式,適用于出版傳媒、電廣傳媒、影視傳媒等內容產業,由1數據基座+2大模型系列+3平臺+N智能體應用。
先盤清楚我們的語料數據庫,到底有哪些形態的語料數據?分布在哪里?然后通過語料加工平臺,多模態信息經過抽取、清洗、語料化加工、審核,進入到管理平臺,進行多模態內容編目、特征抽取、語義檢索。這就方便我們找到想要的素材,以文搜圖、圖搜圖、圖搜視頻都可以。 在此基礎上,就可以進行內容生產和知識服務;面向不同領域的場景需求,應用多智能體編排支撐內容生產。
泛媒體內容智能生產與傳播系統的框架圖,AI全面賦能內容生產的策采審編發,管饋評聯的全流程。光說不練是假把式,看看我們的YoYA系統。基于多模態媒資庫一鍵成片。輸入一句話,自動完成全流程,快速生成高質量的視頻,可以修改編輯素材,修改背景音樂,媒資庫可以基于電視臺或者出版社的私域圖文視聽語料庫。雅意大模型有很多功能,不管是從選題編寫,還是擴寫視頻創作,都可以干,時間關系我們就不展開。
我們認為生成式人工智能將重塑內容生產全流程,“人工+智能”將共創內容產業新范式。

