日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > php >内容正文

php

crontab wget命令定时执行thinkphp的控制器实现定时任务

發布時間:2024/9/20 php 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 crontab wget命令定时执行thinkphp的控制器实现定时任务 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

背景:項目里需要配置個定時任務掃描訂單數據表里的數據,將快要到期的訂單標記出來,寫到系統消息提醒表里。以前配置過crontab直接執行php腳本,然后一路全面向過程的方式將業務實現到底。最近項目用了thinkphp框架,想著框架對于數據操作封裝的便利,就不想再單獨下php腳本文件運行了。但是,在項目里寫的controller控制器文件,配置到crontab里new之后調用對應方法完全沒效果。折騰了一些時間,發現沒弄好后,就果斷放棄了,想到linux的命令wget。于是開始配置wget,將地址設為要執行的controller對應的地址,最終這種方式是可以的。但是,必須記得的是任務運行的controller最好繼承一個基類,然后在基類的thinkphp初始函數_initialize里寫上驗證部分,這樣可以盡量避免外部訪問(可以驗證訪問ip是不是本機或者訪問地址里帶上username和pwd之類的)。

以上屬于業務的說明,下面直接上代碼

  • 01?*?*?*?*?root?wget?-t?1?-T?0?-q?--spider?"http://localhost/tptest/index.php?c=timetask&a=get_sys_warm&visit_name=123456&visit_pwd=123456"

  • 其中用到了wget命令幾個參數:

    -t : 連接次數(失敗后重連)

    -T: 連接時間設置(0不會超時)

    -q:?安靜模式 (不輸出訊息)

    --spider:?不下載任何資料

    備注:有點問題的是這種屬于web形式,雖然在訪問的控制器里有ip和秘鑰驗證,但不確定會不會有什么安全隱患。

    命令格式:

    wget [參數列表] [目標軟件、網頁的網址]


    -V,--version 顯示軟件版本號然后退出;

    -h,--help顯示軟件幫助信息;

    -e,--execute=COMMAND 執行一個 “.wgetrc”命令


    -o,--output-file=FILE 將軟件輸出信息保存到文件;

    -a,--append-output=FILE將軟件輸出信息追加到文件;

    -d,--debug顯示輸出信息;

    -q,--quiet 不顯示輸出信息;

    -i,--input-file=FILE 從文件中取得URL;


    -t,--tries=NUMBER 是否下載次數(0表示無窮次)

    -O --output-document=FILE下載文件保存為別的文件名

    -nc, --no-clobber 不要覆蓋已經存在的文件

    -N,--timestamping只下載比本地新的文件

    -T,--timeout=SECONDS 設置超時時間

    -Y,--proxy=on/off 關閉代理


    -nd,--no-directories 不建立目錄

    -x,--force-directories 強制建立目錄


    --http-user=USER設置HTTP用戶

    --http-passwd=PASS設置HTTP密碼

    --proxy-user=USER設置代理用戶

    --proxy-passwd=PASS設置代理密碼


    -r,--recursive 下載整個網站、目錄(小心使用)

    -l,--level=NUMBER 下載層次


    -A,--accept=LIST 可以接受的文件類型

    -R,--reject=LIST拒絕接受的文件類型

    -D,--domains=LIST可以接受的域名

    --exclude-domains=LIST拒絕的域名

    -L,--relative 下載關聯鏈接

    --follow-ftp 只下載FTP鏈接

    -H,--span-hosts 可以下載外面的主機

    -I,--include-directories=LIST允許的目錄

    -X,--exclude-directories=LIST 拒絕的目錄


    中文文檔名在平常的情況下會被編碼, 但是在 --cut-dirs 時又是正常的,

  • wget?-r?-np?-nH?--cut-dirs=3?ftp://host/test/測試.txt
  • 復制
  • wget?-r?-np?-nH?-nd?ftp://host/test/
  • %B4%FA%B8%D5.txt
  • wget?"ftp://host/test/*"
  • %B4%FA%B8%D5.txt
  • 復制


    由 於不知名的原因,可能是為了避開特殊檔名, wget 會自動將抓取檔名的部分用 encode_string 處理過, 所以該 patch 就把被 encode_string 處理成 "%3A" 這種東西, 用 decode_string 還原成 ":", 并套用在目錄與檔案名稱的部分,decode_string 是 wget 內建的函式。

    WGet使用指南

    wget是一個從網絡上自動下載文件的自由工具。它支持HTTP,HTTPS和FTP協議,可以使用HTTP代理.


    所謂的自動下載是指,wget可以在用戶退出系統的之后在后臺執行。這意味這你可以登錄系統,啟動一個wget下載任務,然后退出系統,wget將在后臺執行直到任務完成,相對于其它大部分瀏覽器在下載大量數據時需要用戶一直的參與,這省去了極大的麻煩。


    wget 可以跟蹤HTML頁面上的鏈接依次下載來創建遠程服務器的本地版本,完全重建原始站點的目錄結構。這又常被稱作”遞歸下載”。在遞歸下載的時候,wget 遵循Robot Exclusion標準(/robots.txt). wget可以在下載的同時,將鏈接轉換成指向本地文件,以方便離線瀏覽。


    wget 非常穩定,它在帶寬很窄的情況下和不穩定網絡中有很強的適應性.如果是由于網絡的原因下載失敗,wget會不斷的嘗試,直到整個文件下載完 畢。如果是服務器打斷下載過程,它會再次聯到服務器上從停止的地方繼續下載。這對從那些限定了鏈接時間的服務器上下載大文件非常有用。

    wget的常見用法


    wget的使用格式

    Usage: wget [OPTION]... [URL]...

    用wget做站點鏡像:

  • wget?-r?-p?-np?-k?http://dsec.pku.edu.cn/~usr_name/
  • 復制

    # 或者

  • wget?-m?http://www.tldp.org/LDP/abs/html/
  • 復制

    在不穩定的網絡上下載一個部分下載的文件,以及在空閑時段下載

  • wget?-t?0?-w?31?-c?http://dsec.pku.edu.cn/BBC.avi?-o?down.log?&
  • 復制

    # 或者從filelist讀入要下載的文件列表

  • wget?-t?0?-w?31?-c?-B?ftp://dsec.pku.edu.cn/linuxsoft?-i?filelist.txt?-o?down.log?&
  • 復制

    上面的代碼還可以用來在網絡比較空閑的時段進行下載。我的用法是:在mozilla中將不方便當時下載的URL鏈接拷貝到內存中然后粘貼到文件filelist.txt中,在晚上要出去系統前執行上面代碼的第二條。

    使用代理下載

  • wget?-Y?on?-p?-k?https://sourceforge.net/projects/wvware/
  • 復制

    代理可以在環境變量或wgetrc文件中設定

    # 在環境變量中設定代理

  • export?PROXY=http://211.90.168.94:8080/
  • 復制

    # 在~/.wgetrc中設定代理

  • http_proxy?=?http://proxy.yoyodyne.com:18023/
  • ftp_proxy?=?http://proxy.yoyodyne.com:18023/
  • 復制

    wget各種選項分類列表

    啟動

    -V, --version 顯示wget的版本后退出

    -h, --help 打印語法幫助

    -b, --background 啟動后轉入后臺執行

    -e, --execute=COMMAND 執行`.wgetrc'格式的命令,wgetrc格式參見/etc/wgetrc或~/.wgetrc

    記錄和輸入文件

    -o, --output-file=FILE 把記錄寫到FILE文件中

    -a, --append-output=FILE 把記錄追加到FILE文件中

    -d, --debug 打印調試輸出

    -q, --quiet 安靜模式(沒有輸出)

    -v, --verbose 冗長模式(這是缺省設置)

    -nv, --non-verbose 關掉冗長模式,但不是安靜模式

    -i, --input-file=FILE 下載在FILE文件中出現的URLs

    -F, --force-html 把輸入文件當作HTML格式文件對待

    -B, --base=URL 將URL作為在-F -i參數指定的文件中出現的相對鏈接的前綴

    --sslcertfile=FILE 可選客戶端證書

    --sslcertkey=KEYFILE 可選客戶端證書的KEYFILE

    --egd-file=FILE 指定EGD socket的文件名

    下載

    --bind-address=ADDRESS 指定本地使用地址(主機名或IP,當本地有多個IP或名字時使用)

    -t, --tries=NUMBER 設定最大嘗試鏈接次數(0 表示無限制).

    -O --output-document=FILE 把文檔寫到FILE文件中

    -nc, --no-clobber 不要覆蓋存在的文件或使用.#前綴

    -c, --continue 接著下載沒下載完的文件

    --progress=TYPE 設定進程條標記

    -N, --timestamping 不要重新下載文件除非比本地文件新

    -S, --server-response 打印服務器的回應

    --spider 不下載任何東西

    -T, --timeout=SECONDS 設定響應超時的秒數

    -w, --wait=SECONDS 兩次嘗試之間間隔SECONDS秒

    --waitretry=SECONDS 在重新鏈接之間等待1...SECONDS秒

    --random-wait 在下載之間等待0...2*WAIT秒

    -Y, --proxy=on/off 打開或關閉代理

    -Q, --quota=NUMBER 設置下載的容量限制

    --limit-rate=RATE 限定下載輸率

    目錄

    -nd --no-directories 不創建目錄

    -x, --force-directories 強制創建目錄

    -nH, --no-host-directories 不創建主機目錄

    -P, --directory-prefix=PREFIX 將文件保存到目錄 PREFIX/...

    --cut-dirs=NUMBER 忽略 NUMBER層遠程目錄

    HTTP 選項

    --http-user=USER 設定HTTP用戶名為 USER.

    --http-passwd=PASS 設定http密碼為 PASS.

    -C, --cache=on/off 允許/不允許服務器端的數據緩存 (一般情況下允許).

    -E, --html-extension 將所有text/html文檔以.html擴展名保存

    --ignore-length 忽略 `Content-Length'頭域

    --header=STRING 在headers中插入字符串 STRING

    --proxy-user=USER 設定代理的用戶名為 USER

    --proxy-passwd=PASS 設定代理的密碼為 PASS

    --referer=URL 在HTTP請求中包含 `Referer: URL'頭

    -s, --save-headers 保存HTTP頭到文件

    -U, --user-agent=AGENT 設定代理的名稱為 AGENT而不是 Wget/VERSION.

    --no-http-keep-alive 關閉 HTTP活動鏈接 (永遠鏈接).

    --cookies=off 不使用 cookies.

    --load-cookies=FILE 在開始會話前從文件 FILE中加載cookie

    --save-cookies=FILE 在會話結束后將 cookies保存到 FILE文件中

    FTP 選項

    -nr, --dont-remove-listing 不移走 `.listing'文件

    -g, --glob=on/off 打開或關閉文件名的 globbing機制

    --passive-ftp 使用被動傳輸模式 (缺省值).

    --active-ftp 使用主動傳輸模式

    --retr-symlinks 在遞歸的時候,將鏈接指向文件(而不是目錄)

    遞歸下載

    -r, --recursive 遞歸下載--慎用!

    -l, --level=NUMBER 最大遞歸深度 (inf 或 0 代表無窮).

    --delete-after 在現在完畢后局部刪除文件

    -k, --convert-links 轉換非相對鏈接為相對鏈接

    -K, --backup-converted 在轉換文件X之前,將之備份為 X.orig

    -m, --mirror 等價于 -r -N -l inf -nr.

    -p, --page-requisites 下載顯示HTML文件的所有圖片

    遞歸下載中的包含和不包含(accept/reject)

    -A, --accept=LIST 分號分隔的被接受擴展名的列表

    -R, --reject=LIST 分號分隔的不被接受的擴展名的列表

    -D, --domains=LIST 分號分隔的被接受域的列表

    --exclude-domains=LIST 分號分隔的不被接受的域的列表

    --follow-ftp 跟蹤HTML文檔中的FTP鏈接

    --follow-tags=LIST 分號分隔的被跟蹤的HTML標簽的列表

    -G, --ignore-tags=LIST 分號分隔的被忽略的HTML標簽的列表

    -H, --span-hosts 當遞歸時轉到外部主機

    -L, --relative 僅僅跟蹤相對鏈接

    -I, --include-directories=LIST 允許目錄的列表

    -X, --exclude-directories=LIST 不被包含目錄的列表

    -np, --no-parent 不要追溯到父目錄


    來源:http://www.shouce.ren/post/view/id/113297

    總結

    以上是生活随笔為你收集整理的crontab wget命令定时执行thinkphp的控制器实现定时任务的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。