當前位置:首頁 » 服務存儲 » ai里為什麼用到很多樹狀存儲
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

ai里為什麼用到很多樹狀存儲

發布時間: 2023-03-24 10:22:52

⑴ 樹狀數組

首先先將所有數從小到大排序 ,帶凱答並編號, 大小相同的編號也相同 , 我們記ai的編號為si 。
依次處理孫悉a1,a2...an , 用f[ i ] 記錄當前編號蠢慧為 i 的出現了好多次
對於ai 來說 ,比它小的數的個數就是 f[ 1 ] + f[ 2 ] + ... f[ si - 1 ]
用樹狀數組處理上面的 f[ 1 ] + f[ 2 ] + ... f[ si - 1 ] 求和過程就OK了。
快排和樹狀數組都是O(nlogn) ,所以整個演算法是O(nlogn)
還有問題的話可以聯系我

⑵ AI在保存的時候出現「無法存儲插圖」怎麼辦為什麼呢

出現這種情況主要是C盤內存不夠。

解決方法如下:

1、先打開AI,右上角點開編輯。

⑶ AI存儲時 出現未知錯誤為什麼存不了 求幫忙!很急!

內存問題,清理下內存,
第二,你做的文件太大,更多的可能是你再做文件的時候,有很多圖片是復制黏貼進去的,而不是置入鏈接進去的。

⑷ 網路高手請進~!

其實做網站的道理很簡單,就是在網路上能讓別人瀏覽你做的網頁,運行你的網路程序,下面我來詳細給你解答一下(自己的話,絕非抄襲)。

1:所需要了解的知識

首先必先了解HTML語言,這是一種標記性語言,也就是網頁的源代橘喊首碼,無論什麼網頁設計軟體,最終都是根據HTML語言滲型的原理來實現可視化的操作,可謂「萬變不離其宗」

再者最好了解一下腳本語言,如JAVASCRIPT、VBSCRIPT。這些是應用與HTML內的嵌入式腳本語言,能非常方便的嵌入於HTML語言中實現強大的交互功能。其實在現在的網站建設中,此類語言的使用頻率非常高,所以有必要重視一下。

第三了解一下網路介面語言,也就是常說的網路程序語言,如CGI、PHP、ASP、JSP等,這里語言可以實現網站和瀏覽者,前台界面與後台資料庫之間的完美交互功能,比如論壇,聊天室、OA系統等都是這些語言的傑作。也是建站不可缺少的元素。

最後了解一點網路伺服器的知識,和網路資料庫的知識。當然還要了解HTTP和FTP協議。

2:製作網頁所涉及到的軟體

這點相信大家都很熟悉,做網頁的軟體目前仍然是MICROSOFT的FRONTPAGE和MICROMEADIA的DREAMWEAVER最流行。多查查這類的書籍,學好了絕對對你有幫助。

至於網頁上的動態元素(GIF和FLASH動畫)涉及到的軟體有,MICROMEADIA的FLASH和ADOBE的IMAGEREADY等,製作靜態圖片我還是給你推薦ADOBE的PHOTOSHOP。學好這些軟體,想設計出漂亮的頁面就不是問題了。

3:網路伺服器

就是所謂的網路空間,有自己的獨立IP,可以做DNS指向。空間有免費的也有要花錢的,具體使用哪類還要你自己決定。

將本機已經製作好的網站傳到網路空間上通常會使用FTP協議(文件傳輸協議)。比較流行的軟體有CUTEFTP和FLASHFXP等,使用方法請參考相關的資料。這里不多加說明。

這里要提示你的是,本機的圓數網站如果涉及到網路程序和資料庫的話,一定要注意以下幾個問題:

1)、空間是否支持網路語言,比如PHP、ASP之類的。

2)、空間是否提供資料庫空間,比如MYSQL、ACCESS、SQLSERVER等。

3)、利用FTP將文件傳輸到網路空間里時,一定要記得修改程序文件和資料庫文件的文件屬性,比如程序文件一定要設置成「可讀」和「可執行」方可在網路上正常運行;資料庫文件一定要設置成「可讀」和「可寫」屬性方可在網路上正常讀寫數據。

以上為製作網站所需要的一些相關知識。希望能對你有所幫助。

###################製作一個最簡單的網站的步驟##############

1:利用網頁製作軟體製作一個網站,首頁文件起名為「index.htm」或「default.htm」

2:申請網路空間和域名。

申請一個免費的空間你需要記錄以下信息:空間的域名、FTP地址、用戶名、密碼。

申請一個不支持程序的收費空間你需要記錄的信息有:域名、空間地址、DNS解析管理後台地址、FTP地址、FTP用戶名、FTP密碼等。

申請一個支持程序的空間你需要記錄的信息有:域名、空間地址、DNS解吸管理後台地址、用戶名、密碼、FTP地址、FTP用戶名、FTP密碼、資料庫地址、資料庫用戶名、資料庫密碼。

3:利用FTP軟體將你的網站傳到網路空間的指定目錄下,如果有程序記得更改程序文件的屬性。

4:在地址欄中輸入你的域名,直接會顯示你的首頁文件。

至此一個簡單的網站就弄好了,弄網站容易,維護網站可不容易後,以後利用維護網站的時間多熟悉這方面的操作就可以了。

希望你早日成為一個建站高手,歡迎QQ隨時聯系:86831860。

⑸ 可解釋AI,如何打開演算法的黑箱

隨著以機器學習為代表的新一代人工智慧技術不斷朝著更加先進、復雜、自主的方向發展,我們的經濟和 社會 發展都紛紛迎來了變革性的機遇。但與此同時,AI演算法的透明度、可解釋性問題也為公眾信任、公共安全等諸多領域帶來了前所未有的挑戰。

1月11日 14日,「騰訊 科技 向善創新周」在線上舉辦。「透明可解釋AI——打開黑箱的理念與實踐」專題論壇即聚焦於此。論壇發布了《可解釋AI發展報告2022》,隨後由專家學者(見文末)共同參與了圓桌討論。以下為整理文章:

可解釋AI的概念共識

姚新:

大家在討論AI演算法的透明性和可解釋性的時候,首先應該考慮三個W的問題——Who,What和Why的問題。

首先,到底是對誰講透明和可解釋?因為從科學研究來說,任何一個研究都必須透明,都必須可解釋,否則這個論文是發不出來的。所以我猜過去講透明性和可解釋性,可能不是對科學家來說的可解釋性或者透明性,因為對科學家的透明性和可解釋性,不一定對大眾透明和可解釋。第二是解釋什麼?解釋模型做出來的結果還是解釋這個模型的工作原理。第三,解釋總是有一個目的,目的是要追責還是理解這個模型的科學原理。

根據對這三個W不同的答案,會得出非常不一樣的透明性和可解釋性,相應的解決辦法可能也完全不一樣。不管怎樣,考慮透明性和可解釋性的時候,首先大家要有一個概念上的共識,使得我們知道我們是講同樣一件事情,而不是用了同樣一個名詞,大讓宏家在不同的抽象層次講不同的問題。

吳保元:

可解釋是可信AI的重要組成部分,是可信的前提條件之一,但是相比於魯棒性、公平性等可信特性,我覺得可解釋不是獨立存在的概念。就是姚老師剛才提到的,我們到底在解釋什麼?其他的特性都是有自己明確的數學定義,比如魯棒性、公平性等,但是可解釋性是沒有的,因為我們單獨提到它的時候,背後默認的更可能是對模型准確度的可解釋性。或許這也可以解釋為什麼當前的可解釋研究思路這么多,但是好像沒有一個明確的框架,我覺得最主要的原因是它的解釋對象不一樣,沒有辦法統一到一起。

基於這種理解,我個人有一點小的想法,不應該把它稱為可解釋性,把它稱為可解釋力或許更准確。可解釋性,大家可能誤認為它是一種獨立存在的性質;可解釋力是一種可解釋的能力,脊滑態就像我們說的理解力、領導力等等,它是一種手段,一種行為,一種操作存在,需要跟別的綁在一起。我覺得以後提到它的時候,應該准確地描述它是針對什麼特性的可解釋力,而不是籠統地說可解釋性如何。

可解釋AI的價值何在?

朱菁:

人們對於人工智慧系統可解釋性、透明性的要求,大致有四個層次:

第一個針對的是直接用戶,用戶需要了解人工智慧產品、服務背後的原理是什麼,這是建立可信任AI的重要基礎。可解釋AI,實際上支撐了可信任AI。

第二個層次,對於政策和監管部門,他們希望通過解釋原理來了解人工智慧產品的公平性、可問責性,歸因的過程是我們進一步問責、追究責任的基礎。所以,可解釋AI也與負責任的AI、可問責的AI是聯系在一起的。

第三個層次就是技術工程與科學層次,我們希望了解為什麼某些演算法能夠成功,它成功背後的奧秘是什麼,它的應用范圍是什麼,它能否在更大的范圍內使用櫻源這樣一些演算法或者是一些技術。

第四個是公眾理解AI,如果 社會 大眾大多數關心的話,他也能夠在這方面了解相應的技術、系統大體的工作原理方式是什麼。

何鳳翔:

在現在的AI系統中,其實很多演算法背後運作機制是未知的,是不清楚的,這種未知帶來了未知的、難以管理的風險,包括安全性、魯棒性、隱私保護、公平性等等。

這些點關繫到了 社會 運轉中非常關鍵、人命關天的領域,比如醫療、自動駕駛。這會帶來很大的應用方面的困難,以及 社會 對AI的不信任。因為當AI演算法運作機制是未知的時候,它的風險機制、風險大小、風險尺度就是未知的,我們就難以去管理風險,進而去控制風險。

可解釋AI的挑戰何在?

姚新:

原來我一個學生跟我做了一點關於公平性的工作,跟其他的文獻發現的點非常一致,就是說模型的准確性和公平性之間是相互矛盾的。性能最好的模型從公平性的角度來說,按指標來測量不見得最好,你要把模型做得都是最公平,用指標來衡量的話,它的性能就會受到損失。實際上可解釋性非常類似現在有各版的可解釋性指標,但是要真正考慮這些指標的話,模型的性能總是會掉下來,要考慮在實際過程中怎麼來找一個折中的方案。

吳保元:

針對可解釋性本身的不可行、不可取,這也是值得我們思考的問題。比如說我們在研究犯罪率或者說疾病的傳播率、發病率等,如果我們就拿現成的統計數據,比如在不同種族、不同地域採集的數據,很有可能會得出來某些種族或者某些地域犯罪率很高,這是因為數據採集的時候就是這樣的。這樣一來,如果可解釋給出的類似結論被公開,可能會造成種族或者地域歧視。但實際上數據背後是我們在採集的時候沒有採集其他特性,比如說為什麼這個地域的傳播率很高呢?很有可能是政府投入不足,或者說其他的因素。

所以這也啟發我們可解釋性本身它的可信性是什麼,它的准確性,它的公平性,它是否忽略了某些特徵,或者誇大了某些特徵,它的魯棒性,是不是把樣本變化一點,它的可解釋性截然相反,這些需要我們進一步思考。

另外,我跟很多研究可解釋的專家聊過,他們的困惑在於現在的可解釋性方法是不可印證的,甚至是矛盾的,這就引出了可解釋性方法本身的可信度的問題。

何鳳翔:

在我看來,理解深度學習演算法的運作機制,大致有理論和實踐兩條路徑。在理論方面,當前的研究無法完全解釋理論上泛化性較差的深度模型為何能在多領域取得如此的成功。這種理論與實踐的矛盾,就像曾經物理學中的烏雲一樣,反映出來了人們對於機器學習理解的缺失,而這是現在在理論上提升演算法可解釋性的一個難點。

而在實驗角度上,很多實驗學科中的做法可以作為對於機器學習研究的啟發,比如說物理學、化學,以及剛才提到的醫療。比如說葯物研發流程中的合格檢驗,要做雙盲實驗;在物理學、化學的研究中,對控制變數實驗有嚴格要求。類似的機制是否能在AI研究中嚴格執行呢?我覺得這可能是另外一條路徑。在我看來,現有的很多對於AI演算法的解釋是啟發式的,而在關鍵領域中我們需要的是證據,這需要在理論和實驗兩方面做很多工作。

可解釋AI如何實現?

朱菁:

前面很多專家都指出對於解釋有不同的目標,不同的對象,不同的要求,所以實際上關於人工智慧的可解釋性問題可能是屬於多元性的,就是要允許有多種不同層次不同方式的解釋在這裡面起作用,針對不同的領域、不同的對象,使用不同解釋的方式。

當可解釋性有它的局限或者和其他的目標、要求,需要做出權衡取捨的時候,我們想也可以從多個層面來進行替代性的,或者說是補償性、補充性的策略。比方說針對監管部門,它對於可解釋性的要求,和面向公眾或者專家層面的,會有所不同,所以這個可以通過若干個層次,比如說監管部門的,行業的,市場的,以及傳播普及層面的,對於安全性、魯棒性要求更高一些,或者在專家層面上有更好的溝通理解,而對於 社會 公眾而言,這裡面就需要有一些轉換,同時有需要一些權威部門,有公信力的部門,向 社會 做一些說明和認定。

姚新:

深度神經網路可以解決特別復雜的問題,我覺得現在大家用深度網路有一個原因,即所針對的問題本身可能就比較復雜。這是一個假設。假如這個假設是對的話,那麼相應的可解釋性不會特別好理解。因為需要對付這些復雜性,相應的模型就必然是要復雜。

所以我總覺得透明性、可解釋性和性能之間是有一個固有的矛盾,如果現在把從技術上討論的方向,是怎麼找一個折中方案,根據不同的場景、可解釋的目的,找不同折中方案,這樣導致有可能會出來一些比較具體的技術,或者可以促進這些技術往落地的方向走。

吳保元:

我們嘗試過一些從技術上可行的方案去量化各種可信特性,但是,要實現統一量化很困難,比如說公平性和魯棒性都有不同的量化准則和指標。當把不同的特性簡單組合到一起的時候很難優化,因為它們的准則是高度不對齊的,差異非常大,這就涉及怎麼去對齊這些特性坐標。我認為想要找到一個全局坐標系是非常困難的。我們可以從局部出發,針對某種場景,比如醫療場景,首先把隱私性當做前提,在金融或者自動駕駛,我們把魯棒性當做前提,然後再去研究其他特性,或許一步一步能夠找到這種坐標系。

可解釋AI的技術現狀?

鄭冶楓:

總體來說,因為我們現在還缺乏非常好的理論框架,所以可能針對問題,我們創造性地想一些演算法,試圖提高本身這個系統的可解釋性,給大家舉兩個例子來說明一下我們天衍實驗室在這方面的 探索 。

深度學習可能有千億、萬億的參數,這對於醫生來說太復雜了,他很難理解這個演算法的底層原理,演算法本身可能缺乏一個全局的可解釋性。但是深度學習框架准確率非常高,所以我們不可能不用。而可解釋性非常好的模型就是回歸模型,這類模型主要的問題就是准確率太低。所以我們做了一個 探索 ,我們希望把這兩個模型結合起來,它具有非常高的准確率,還有一定的可解釋性,不是完全可解釋性。

我們把這個混合模型用於疾病風險預測,就是根據病人歷次的就診記錄,我們預測病人在未來6個月之內得某個重大疾病的概率,比如他得卒中的概率。病人每一次的就診記錄包含大量信息,這裡面我們需要提取一些跟預測目標相關的重要信息,我們知道生物學習網路最擅長的就是自動特徵學習。所以我們利用深度學習網路把一次就診記錄壓縮成一個特徵的向量,接著我們利用回歸模型,把病人多次就診記錄綜合起來預測未來6個月之內這個病人得腦卒中的風險。

楊強:

我們在審視各個演算法和它對應的可解釋性的關聯問題上,發現一個有趣的現象,比方說在機器學習裡面,深度學習就是屬於效率非常高的,但是它卻對應的可解釋性很差。同樣,線性模型沒有那麼高,但是它的可解釋性相對強一些,樹狀模型也是,因果模型更是這樣。所以往往我們確實得做一個取捨,就是我們在可解釋這個維度和高效率這個維度,在這個空間裡面選擇哪一個點,現在並沒有在兩個維度都高的這樣一個演算法。

可解釋AI的行業實踐

鄭冶楓:

各行業對可解釋性和透明性的要求不同,我結合醫療AI這個場景給大家分享一下我的體會和理解。大家知道醫療在全世界范圍內都是被強監管的領域,一款醫療產品要上市必須拿到醫療器械注冊證,輔助診斷演算法AI產品屬於三類醫療醫療,也就是監管最嚴格的級別,所以我們要披露的信息很多,大致包括數據集和臨床演算法驗證兩方面。前者主要強調數據集的公平多樣性和廣泛覆蓋性,後者則重視披露我們的演算法真正在臨床試驗中、真正臨床應用的時候它的性能。

此外,我們的測試樣本也需要有很好的多樣性,覆蓋不同醫院,不同區域,不同病人群體、廠商、掃描參數等等。臨床實驗更加嚴格,首先我們要固化演算法的代碼,在臨床試驗期間是不能改代碼的,因為你不能一邊做實驗一邊改代碼,這就失去了臨床試驗的意義。

所以醫療AI的監管是非常強的,葯監局需要我們披露很多信息,提高醫療AI產品的透明性,它有非常嚴格甚至苛刻的書面要求。因為我們知道智能學習網路天然不具有很好的解釋性,雖然你可以做一些中間增強,可以一定程度上改善這些事情,監管也可以理解這個解釋性差一點,正因為解釋性差,要求的透明性就越高。

何鳳翔:

我覺得提供AI系統的說明書有兩個路徑:第一個路徑從生成AI系統的過程出發。這一點現在有一些實踐,比如開源代碼,說明使用了什麼數據,數據是如何使用的、如何預處理的。這會提升人們對AI的信任和理解,這也像剛才鄭老師提到,申請醫療相關的資質的時候,我們需要把生產細節匯報給相關機構。

第二種方式就是從生成的AI系統所做出的預測以及決策的指標來入手做演算法的說明書。比方對AI系統做一些測評。對於剛才我們提到的指標,包括可解釋性、魯棒性、准確性、隱私保護、公平性,找到一些比較好的量化指標、找到一些評測演算法,把這些指標作為AI系統的使用說明書。

可解釋AI的未來發展

楊強:我期待在未來人工智慧的治理,在人工智慧,人和機器這種和諧共存,共同解決我們要解決問題的前提下,會越來越成熟。我是非常看好這個領域的。

朱菁:我期待這個領域進一步的探討,不同領域的學者都能夠參與進來。比如說像我自己做的主要是哲學, 科技 哲學。在 科技 哲學,實際上對於解釋有將近一百年的積累和 探索 ,這裡面應該有很多可以發掘借鑒的資源,參與到目前這樣一個很有意思很有挑戰性的話題裡面。

何鳳翔:AI本身是一個跨學科領域,它可能會用到很多數學、統計、物理、計算機等各個知識的領域,今天提到的很多點,包括隱私保護、公平性,很多也是來源於人文學科、法律、 社會 學這些方面。所以這就意味著研究可信AI以及可解釋性等等方面會需要各個學科領域的人合作起來一起去做的一件事情,會非常需要大家的通力合作,共同推進這個領域的發展。

姚新:對於做研究來說,我希望將來可以有一點聚焦的討論。我剛才講的3W,到底我們要解決透明性、可解釋性的哪一部分,對誰而言。假如對醫療而言,是對法規的制定者來說還是對醫生來說,還是對病人來說,還是對這個系統的開發者來說?我覺得在這裡面有非常多可以發揮自己的想像力和能力的地方。

鄭冶楓:對演算法人員來說,當然我們希望將來科學家們找到非常好的,具有良好可解釋性,同時准確性非常高的演算法,真正做到魚和熊掌兼得。

⑹  人工智慧技術

工智能(Artificial Intelligence)是研究、開發用於模擬、延伸和擴展人智能的理論、方法、技術及應用系統的一門新技術科學。人工智慧領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。
人工智慧(Artificial Intelligence),英文縮寫為AI。它是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技手讓術及應用系統的一門新技術科學。
人工智慧是計算機科學的一個分支,它企圖了解智能的實質,可以產出一種新的可以和人類智能相似的方式做出反應的智能機器,該領域的研究主要有機器人、語言識別畢凳局、圖像識別、自然語言處理和專家系統等。
自從人工智慧誕生以來,理論和技術越來越成熟,應用領域在不斷的擴大,可以設想,未來人工智慧帶來的科技產品,將會是人類智慧的「容器」。人工智慧可以把人的意識、思維的信息過程的模擬。雖然人工智慧不是人的智能,但可粗頃以像人那樣思考、最終可能超過人的智能。
優點:
1、在生產方面,效率更高且成本低廉的機器及人工智慧實體代替了人的各種能力,人類的勞動力將大大被解放。
2、人類環境問題將會得到一定的改善,較少的資源可以滿足更大的需求。
3、人工智慧可以提高人類認識世界、適應世界的能力。
缺點:
1、人工智慧代替了人類做各種各樣的事情,人類失業率會明顯的增高,人類就會處於無依靠可生存的狀態。
2、人工智慧如果不能合理利用,可能被壞人利用在犯罪上,那麼人類將會陷入恐慌。
3、如果我們無法很好控制和利用人工智慧,我們反而會被人工智慧所控制與利用,那麼人類將走向滅亡,世界也將變得慌亂。

⑺ ai格式怎樣在illustrator中將一張畫面有很多圖批量存儲成JPG格式的圖片

AI批量導出多個圖片為單獨JPG,是要將每個圖片建立單獨的畫板就可以了

步驟:

1、先打開需要導出的總圖,這里示例的是由多條花邊在一起的圖片;

⑻ 用AI排雜志需要預留出血位嗎為什麼

1.用AI排版應該注咐羨意什麼常見問題?

答:要注意頁面尺寸,預留出血位,輸出的時候要注意貼印,比如你有CMYK四色圖片,作圖的時候不覺得什麼,但出菲林後,要注意由於黑色是在所有顏色最上面的,所以下面的顏色要做好疊印,否則就會透穿,何為透穿,就象盜版的問什麼有時候文字看上去顏色都溢出了,就因為透穿了,而造成疊印不準,這個步驟是不能省的,具體做法是:顏色面板-屬性框-疊印顏色,有時還要疊印畫筆,道理一樣,除了黑色,其他的都要疊印,因為黑總在嫌纖上面,所以不會被壓掉的

2.這么可以不讓標點符號不再句首?

答:在AI中好像沒有避頭尾設置吧,你可以先用文本工具畫出一個框,然後文字就可以定義在框中了,這樣也省了段落回車,如果標點不小心到頭上去了,你可以用字元工具中的"字距微調",快捷鍵是將某段字元選中,然後按ALT+右箭頭,就可以調整了,一般出版物上根本看不出來,而且用了文本框的畫,你稍微拉一下文本框也可以很好的解決這個問題。

3.新建文件的時候是不是就要吧出血加上?

答:不需要。
你要什麼大小的文件就建立多大的,因為AI不是象PS一樣,按照建立文件的大小列印的,芹簡仿AI是看到頁面上有什麼就列印什麼,如果區分出血和圖文,是通過剪裁標記,也就是通常所說的角線來區分的,所以完全沒有必要在把出血也算上去,再說,這樣更容易畫角線

4.成圖存成什麼格式送到印刷廠好?

答:因為是要通過機器先出菲林,所以當然是打PS文件咯,這里的PS和PHOTOSHOP可不是一回事啊,全稱是POSTSCRIPT,是製版機認識的格式。如果你就想問怎麼把文件給印刷廠,那就直接存AI,他們有機器可以打開文件的。

5.文件置入AI里和直接把文件拖到AI里有區別嗎??

答:當然是有區別的了,置入的文件比直接拖到AI中的文件,在存儲後大,因為拖入文件到AI,在行業里的術語叫包含,也就是AI中包含了圖片,點陣圖等一些其他的文件,這樣原本AI小巧的文件就會被這些文件所變大,而置入只不過給了AI一個路徑,總的文件並不包括他們,所以文件就來的小,一般建議置入,因為這樣的話打開一個文件所需要的時間就少很多了,尤其象現在越做越復雜的圖片。
那當然有利也有弊的,由於置入是一個路徑,如果你的AI文件(就是本身的文件)被拖出了文件夾,那打開的時候就會找不到那些圖片,而包含就不會出現那個問題了
所以建議在做AI的時候不要都做在一個文件夾下,做什麼圖了,就新建個文件夾,這樣你的AI文件就有序的多了。