JavaCV推流實戰(MP4文件)
- 2022 年 1 月 20 日
- 筆記
歡迎訪問我的GitHub
//github.com/zq2599/blog_demos
內容:所有原創文章分類匯總及配套源碼,涉及Java、Docker、Kubernetes、DevOPS等;
歡迎訪問我的GitHub
這裡分類和匯總了欣宸的全部原創(含配套源碼)://github.com/zq2599/blog_demos
本篇概覽
- 自己的mp4文件,如何讓更多的人遠程播放?如下圖所示:
- 這裡簡單解釋一下上圖的功能:
- 部署開源流媒體伺服器SRS
- 開發名為PushMp4的java應用,該應用會讀取本機磁碟上的Mp4文件,讀取每一幀,推送到SRS上
- 每個想看影片的人,就在自己電腦上用流媒體播放軟體(例如VLC)連接SRS,播放PushMp4推上來的影片
- 今天咱們就來完成上圖中的實戰,整個過程分為以下步驟:
- 環境資訊
- 準備MP4文件
- 用docker部署SRS
- java應用開發和運行
- VLC播放
環境資訊
- 本次實戰,我這邊涉及的環境資訊如下,供您參考:
- 作業系統:macOS Monterey
- JDK:1.8.0_211
- JavaCV:1.5.6
- SRS:3
準備MP4文件
- 準備一個普通的MP4影片文件即可,我是在線下載了影片開發常用的大熊兔影片,地址是:
//www.learningcontainer.com/wp-content/uploads/2020/05/sample-mp4-file.mp4
用docker部署SRS
- SRS是著名的開源的媒體伺服器,推到這裡的流,都可以用媒體播放器在線播放,為了簡單起見,我在docker環境下一行命令完成部署:
docker run -p 1935:1935 -p 1985:1985 -p 8080:8080 ossrs/srs:3
- 此刻SRS服務正在運行中,可以推流上去了
開發JavaCV應用
- 接下來進入最重要的編碼階段,新建名為simple-grab-push的maven工程,pom.xml如下(那個名為javacv-tutorials的父工程其實沒有什麼作用,我這裡只是為了方便管理多個工程的程式碼而已,您可以刪除這個父工程節點):
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="//maven.apache.org/POM/4.0.0"
xmlns:xsi="//www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="//maven.apache.org/POM/4.0.0 //maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
<artifactId>javacv-tutorials</artifactId>
<groupId>com.bolingcavalry</groupId>
<version>1.0-SNAPSHOT</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<groupId>com.bolingcavalry</groupId>
<version>1.0-SNAPSHOT</version>
<artifactId>simple-grab-push</artifactId>
<packaging>jar</packaging>
<properties>
<!-- javacpp當前版本 -->
<javacpp.version>1.5.6</javacpp.version>
</properties>
<dependencies>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
</dependency>
<dependency>
<groupId>ch.qos.logback</groupId>
<artifactId>logback-classic</artifactId>
<version>1.2.3</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-to-slf4j</artifactId>
<version>2.13.3</version>
</dependency>
<!-- javacv相關依賴,一個就夠了 -->
<dependency>
<groupId>org.bytedeco</groupId>
<artifactId>javacv-platform</artifactId>
<version>${javacpp.version}</version>
</dependency>
</dependencies>
</project>
-
從上述文件可見,JavaCV的依賴只有一個javacv-platform,挺簡潔
-
接下來開始編碼,在編碼前,先把整個流程畫出來,這樣寫程式碼就清晰多了:
- 從上圖可見流程很簡單,這裡將所有程式碼寫在一個java類中:
package com.bolingcavalry.grabpush;
import lombok.extern.slf4j.Slf4j;
import org.bytedeco.ffmpeg.avcodec.AVCodecParameters;
import org.bytedeco.ffmpeg.avformat.AVFormatContext;
import org.bytedeco.ffmpeg.avformat.AVStream;
import org.bytedeco.ffmpeg.global.avcodec;
import org.bytedeco.ffmpeg.global.avutil;
import org.bytedeco.javacv.FFmpegFrameGrabber;
import org.bytedeco.javacv.FFmpegFrameRecorder;
import org.bytedeco.javacv.FFmpegLogCallback;
import org.bytedeco.javacv.Frame;
/**
* @author willzhao
* @version 1.0
* @description 讀取指定的mp4文件,推送到SRS伺服器
* @date 2021/11/19 8:49
*/
@Slf4j
public class PushMp4 {
/**
* 本地MP4文件的完整路徑(兩分零五秒的影片)
*/
private static final String MP4_FILE_PATH = "/Users/zhaoqin/temp/202111/20/sample-mp4-file.mp4";
/**
* SRS的推流地址
*/
private static final String SRS_PUSH_ADDRESS = "rtmp://192.168.50.43:11935/live/livestream";
/**
* 讀取指定的mp4文件,推送到SRS伺服器
* @param sourceFilePath 影片文件的絕對路徑
* @param PUSH_ADDRESS 推流地址
* @throws Exception
*/
private static void grabAndPush(String sourceFilePath, String PUSH_ADDRESS) throws Exception {
// ffmepg日誌級別
avutil.av_log_set_level(avutil.AV_LOG_ERROR);
FFmpegLogCallback.set();
// 實例化幀抓取器對象,將文件路徑傳入
FFmpegFrameGrabber grabber = new FFmpegFrameGrabber(MP4_FILE_PATH);
long startTime = System.currentTimeMillis();
log.info("開始初始化幀抓取器");
// 初始化幀抓取器,例如數據結構(時間戳、編碼器上下文、幀對象等),
// 如果入參等於true,還會調用avformat_find_stream_info方法獲取流的資訊,放入AVFormatContext類型的成員變數oc中
grabber.start(true);
log.info("幀抓取器初始化完成,耗時[{}]毫秒", System.currentTimeMillis()-startTime);
// grabber.start方法中,初始化的解碼器資訊存在放在grabber的成員變數oc中
AVFormatContext avFormatContext = grabber.getFormatContext();
// 文件內有幾個媒體流(一般是影片流+音頻流)
int streamNum = avFormatContext.nb_streams();
// 沒有媒體流就不用繼續了
if (streamNum<1) {
log.error("文件內不存在媒體流");
return;
}
// 取得影片的幀率
int frameRate = (int)grabber.getVideoFrameRate();
log.info("影片幀率[{}],影片時長[{}]秒,媒體流數量[{}]",
frameRate,
avFormatContext.duration()/1000000,
avFormatContext.nb_streams());
// 遍歷每一個流,檢查其類型
for (int i=0; i< streamNum; i++) {
AVStream avStream = avFormatContext.streams(i);
AVCodecParameters avCodecParameters = avStream.codecpar();
log.info("流的索引[{}],編碼器類型[{}],編碼器ID[{}]", i, avCodecParameters.codec_type(), avCodecParameters.codec_id());
}
// 影片寬度
int frameWidth = grabber.getImageWidth();
// 影片高度
int frameHeight = grabber.getImageHeight();
// 音頻通道數量
int audioChannels = grabber.getAudioChannels();
log.info("影片寬度[{}],影片高度[{}],音頻通道數[{}]",
frameWidth,
frameHeight,
audioChannels);
// 實例化FFmpegFrameRecorder,將SRS的推送地址傳入
FFmpegFrameRecorder recorder = new FFmpegFrameRecorder(SRS_PUSH_ADDRESS,
frameWidth,
frameHeight,
audioChannels);
// 設置編碼格式
recorder.setVideoCodec(avcodec.AV_CODEC_ID_H264);
// 設置封裝格式
recorder.setFormat("flv");
// 一秒內的幀數
recorder.setFrameRate(frameRate);
// 兩個關鍵幀之間的幀數
recorder.setGopSize(frameRate);
// 設置音頻通道數,與影片源的通道數相等
recorder.setAudioChannels(grabber.getAudioChannels());
startTime = System.currentTimeMillis();
log.info("開始初始化幀抓取器");
// 初始化幀錄製器,例如數據結構(音頻流、影片流指針,編碼器),
// 調用av_guess_format方法,確定影片輸出時的封裝方式,
// 媒體上下文對象的記憶體分配,
// 編碼器的各項參數設置
recorder.start();
log.info("幀錄製初始化完成,耗時[{}]毫秒", System.currentTimeMillis()-startTime);
Frame frame;
startTime = System.currentTimeMillis();
log.info("開始推流");
long videoTS = 0;
int videoFrameNum = 0;
int audioFrameNum = 0;
int dataFrameNum = 0;
// 假設一秒鐘15幀,那麼兩幀間隔就是(1000/15)毫秒
int interVal = 1000/frameRate;
// 發送完一幀後sleep的時間,不能完全等於(1000/frameRate),不然會卡頓,
// 要更小一些,這裡取八分之一
interVal/=8;
// 持續從影片源取幀
while (null!=(frame=grabber.grab())) {
videoTS = 1000 * (System.currentTimeMillis() - startTime);
// 時間戳
recorder.setTimestamp(videoTS);
// 有影像,就把影片幀加一
if (null!=frame.image) {
videoFrameNum++;
}
// 有聲音,就把音頻幀加一
if (null!=frame.samples) {
audioFrameNum++;
}
// 有數據,就把數據幀加一
if (null!=frame.data) {
dataFrameNum++;
}
// 取出的每一幀,都推送到SRS
recorder.record(frame);
// 停頓一下再推送
Thread.sleep(interVal);
}
log.info("推送完成,影片幀[{}],音頻幀[{}],數據幀[{}],耗時[{}]秒",
videoFrameNum,
audioFrameNum,
dataFrameNum,
(System.currentTimeMillis()-startTime)/1000);
// 關閉幀錄製器
recorder.close();
// 關閉幀抓取器
grabber.close();
}
public static void main(String[] args) throws Exception {
grabAndPush(MP4_FILE_PATH, SRS_PUSH_ADDRESS);
}
}
- 上述程式碼中每一行都有詳細注釋,就不多贅述了,只有下面這四處關鍵需要注意:
- MP4_FILE_PATH是本地MP4文件存放的地方,請改為自己電腦上MP4文件存放的位置
- SRS_PUSH_ADDRESS是SRS服務的推流地址,請改為自己的SRS服務部署的地址
- grabber.start(true)方法執行的時候,內部是幀抓取器的初始化流程,會取得MP4文件的相關資訊
- recorder.record(frame)方法執行的時候,會將幀推送到SRS伺服器
- 編碼完成後運行此類,控制台日誌如下所示,可見成功的取到了MP4文件的幀率、時長、解碼器、媒體流等資訊,然後開始推流了:
23:21:48.107 [main] INFO com.bolingcavalry.grabpush.PushMp4 - 開始初始化幀抓取器
23:21:48.267 [main] INFO com.bolingcavalry.grabpush.PushMp4 - 幀抓取器初始化完成,耗時[163]毫秒
23:21:48.277 [main] INFO com.bolingcavalry.grabpush.PushMp4 - 影片幀率[15],影片時長[125]秒,媒體流數量[2]
23:21:48.277 [main] INFO com.bolingcavalry.grabpush.PushMp4 - 流的索引[0],編碼器類型[0],編碼器ID[27]
23:21:48.277 [main] INFO com.bolingcavalry.grabpush.PushMp4 - 流的索引[1],編碼器類型[1],編碼器ID[86018]
23:21:48.279 [main] INFO com.bolingcavalry.grabpush.PushMp4 - 影片寬度[320],影片高度[240],音頻通道數[6]
23:21:48.294 [main] INFO com.bolingcavalry.grabpush.PushMp4 - 開始初始化幀抓取器
23:21:48.727 [main] INFO com.bolingcavalry.grabpush.PushMp4 - 幀錄製初始化完成,耗時[433]毫秒
23:21:48.727 [main] INFO com.bolingcavalry.grabpush.PushMp4 - 開始推流
- 接下來試試能不能拉流播放
用VLC播放
-
請安裝VLC軟體,並打開
-
如下圖紅框,點擊菜單中的Open Network…,然後輸入前面程式碼中寫的推流地址(我這裡是rtmp://192.168.50.43:11935/live/livestream):
- 如下圖,成功播放,而且聲音也正常:
附加知識點
- 經過上面的實戰,我們熟悉了播放和推流的基本操作,掌握了常規資訊的獲取以及參數設置,除了程式碼中的知識,還有以下幾個隱藏的知識點也值得關注
- 設置ffmpeg日誌級別的程式碼是avutil.av_log_set_level(avutil.AV_LOG_ERROR),把參數改為avutil.AV_LOG_INFO後,可以在控制台看到更豐富的日誌,如下圖紅色區域,裡面顯示了MP4文件的詳細資訊,例如兩個媒體流(音頻流和影片流):
- 第二個知識點是關於編碼器類型和編碼器ID的,如下圖,兩個媒體流(AVStream)的編碼器類型分別是0和1,兩個編碼器ID分別是27和86018,這四個數字分別代表什麼呢?
- 先看編碼器類型,用IDEA的反編譯功能打開avutil.class,如下圖,編碼器類型等於0表示影片(VIDEO),類型等於1表示音頻(AUDIO):
- 再看編碼器ID,打開avcodec.java,看到編碼器ID為27表示H264:
- 編碼器ID值86018的十六進位是0x15002,對應的編碼器如下圖紅框:
- 至此,JavaCV推流實戰(MP4文件)已經全部完成,希望通過本文咱們可以一起熟悉JavaCV處理推拉流的常規操作;
//github.com/zq2599/blog_demos