日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > php >内容正文

php

php绘制频谱图,一步一步教你实现iOS音频频谱动画(二)

發(fā)布時間:2025/3/8 php 17 豆豆
生活随笔 收集整理的這篇文章主要介紹了 php绘制频谱图,一步一步教你实现iOS音频频谱动画(二) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

本文是系列文章中的第二篇,上篇講述了音頻播放和頻譜數(shù)據(jù)計算,本篇講述數(shù)據(jù)處理和動畫的繪制。

前言

在上篇文章中我們已經拿到了頻譜數(shù)據(jù),也知道了數(shù)組每個元素表示的是振幅,那這些數(shù)組元素之間有什么關系呢?根據(jù)FFT的原理, N個音頻信號樣本參與計算將產生N/2個數(shù)據(jù)(2048/2=1024),其頻率分辨率△f=Fs/N = 44100/2048≈21.5hz,而相鄰數(shù)據(jù)的頻率間隔是一樣的,因此這1024個數(shù)據(jù)分別代表頻率在0hz、21.5hz、43.0hz....22050hz下的振幅。

那是不是可以直接將這1024個數(shù)據(jù)繪制成動畫?當然可以,如果你剛好要顯示1024個動畫物件!但是如果你想可以靈活地調整這個數(shù)量,那么需要進行頻帶劃分。嚴格來說,結果有1025個,因為在上篇文章的FFT計算中通過fftInOut.imagp[0] = 0,直接把第1025個值舍棄掉了。這第1025個值代表的是奈奎斯特頻率值的實部。至于為什么保存在第一個FFT結果的虛部中,請翻看第一篇。

頻帶劃分

頻帶劃分更重要的原因其實是這樣的:根據(jù)心理聲學,人耳能容易的分辨出100hz和200hz的音調不同,但是很難分辨出8100hz和8200hz的音調不同,盡管它們各自都是相差100hz,可以說頻率和音調之間的變化并不是呈線性關系,而是某種對數(shù)的關系。因此在實現(xiàn)動畫時將數(shù)據(jù)從等頻率間隔劃分成對數(shù)增長的間隔更合乎人類的聽感。

圖1 頻帶劃分方式

打開項目AudioSpectrum02-starter,您會發(fā)現(xiàn)跟之前的AudioSpectrum01項目有些許不同,它將FFT相關的計算移到了新增的類RealtimeAnalyzer中,使得AudioSpectrumPlayer和RealtimeAnalyzer兩個類的職責更為明確。如果你只是想瀏覽實現(xiàn)代碼,打開項目AudioSpectrum02-final即可,已經完成本篇文章的所有代碼

查看RealtimeAnalyzer類的代碼,其中已經定義了 frequencyBands、startFrequency、endFrequency 三個屬性,它們將決定頻帶的數(shù)量和起止頻率范圍。

public?var?frequencyBands:?Int?=?80?//頻帶數(shù)量

public?var?startFrequency:?Float?=?100?//起始頻率

public?var?endFrequency:?Float?=?18000?//截止頻率

現(xiàn)在可以根據(jù)這幾個屬性確定新的頻帶:private?lazy?var?bands:?[(lowerFrequency:?Float,?upperFrequency:?Float)]?=?{

var?bands?=?[(lowerFrequency:?Float,?upperFrequency:?Float)]()

//1:根據(jù)起止頻譜、頻帶數(shù)量確定增長的倍數(shù):2^n

let?n?=?log2(endFrequency/startFrequency)?/?Float(frequencyBands)

var?nextBand:?(lowerFrequency:?Float,?upperFrequency:?Float)?=?(startFrequency,?0)

for?i?in?1...frequencyBands?{

//2:頻帶的上頻點是下頻點的2^n倍

let?highFrequency?=?nextBand.lowerFrequency?*?powf(2,?n)

nextBand.upperFrequency?=?i?==?frequencyBands???endFrequency?:?highFrequency

bands.append(nextBand)

nextBand.lowerFrequency?=?highFrequency

}

return?bands

}()

接著創(chuàng)建函數(shù)findMaxAmplitude用來計算新頻帶的值,采用的方法是找出落在該頻帶范圍內的原始振幅數(shù)據(jù)的最大值:private?func?findMaxAmplitude(for?band:(lowerFrequency:?Float,?upperFrequency:?Float),?in?amplitudes:?[Float],?with?bandWidth:?Float)?->?Float?{

let?startIndex?=?Int(round(band.lowerFrequency?/?bandWidth))

let?endIndex?=?min(Int(round(band.upperFrequency?/?bandWidth)),?amplitudes.count?-?1)

return?amplitudes[startIndex...endIndex].max()!

}

這樣就可以通過新的analyse函數(shù)接收音頻原始數(shù)據(jù)并向外提供加工好的頻譜數(shù)據(jù):func?analyse(with?buffer:?AVAudioPCMBuffer)?->?[[Float]]?{

let?channelsAmplitudes?=?fft(buffer)

var?spectra?=?[[Float]]()

for?amplitudes?in?channelsAmplitudes?{

let?spectrum?=?bands.map?{

findMaxAmplitude(for:?$0,?in:?amplitudes,?with:?Float(buffer.format.sampleRate)??/?Float(self.fftSize))

}

spectra.append(spectrum)

}

return?spectra

}

動畫繪制

看上去數(shù)據(jù)都處理好了,讓我們捋一捋袖子開始繪制動畫了!打開自定義視圖SpectrumView文件,首先創(chuàng)建兩個CAGradientLayer:var?leftGradientLayer?=?CAGradientLayer()

var?rightGradientLayer?=?CAGradientLayer()

新建函數(shù)setupView(),分別設置它們的colors和locations屬性,這兩個屬性分別決定漸變層的顏色和位置,再將它們添加到視圖的layer層中,它們將承載左右兩個聲道的動畫。private?func?setupView()?{

rightGradientLayer.colors?=?[UIColor.init(red:?52/255,?green:?232/255,?blue:?158/255,?alpha:?1.0).cgColor,

UIColor.init(red:?15/255,?green:?52/255,?blue:?67/255,?alpha:?1.0).cgColor]

rightGradientLayer.locations?=?[0.6,?1.0]

self.layer.addSublayer(rightGradientLayer)

leftGradientLayer.colors?=?[UIColor.init(red:?194/255,?green:?21/255,?blue:?0/255,?alpha:?1.0).cgColor,

UIColor.init(red:?255/255,?green:?197/255,?blue:?0/255,?alpha:?1.0).cgColor]

leftGradientLayer.locations?=?[0.6,?1.0]

self.layer.addSublayer(leftGradientLayer)

}

接著在View的初始化函數(shù)init(frame: CGRect) 和 init?(coder aDecoder: NSCoder)中調用它,以便在代碼或者Storyboard中創(chuàng)建SpectrumView時都可以正確地進行初始化。override?init(frame:?CGRect)?{

super.init(frame:?frame)

setupView()

}

required?init?(coder?aDecoder:?NSCoder)?{

super.init(coder:?aDecoder)

setupView()

}

關鍵的來了,定義一個spectra屬性對外接收頻譜數(shù)據(jù),并通過屬性觀察didSet創(chuàng)建兩個聲道的柱狀圖的UIBezierPath,經過CAShapeLayer包裝后應用到各自CAGradientLayer的mask屬性中,就得到了漸變的柱狀圖效果。var?spectra:[[Float]]??{

didSet?{

if?let?spectra?=?spectra?{

//?left?channel

let?leftPath?=?UIBezierPath()

for?(i,?amplitude)?in?spectra[0].enumerated()?{

let?x?=?CGFloat(i)?*?(barWidth?+?space)?+?space

let?y?=?translateAmplitudeToYPosition(amplitude:?amplitude)

let?bar?=?UIBezierPath(rect:?CGRect(x:?x,?y:?y,?width:?barWidth,?height:?bounds.height?-?bottomSpace?-?y))

leftPath.append(bar)

}

let?leftMaskLayer?=?CAShapeLayer()

leftMaskLayer.path?=?leftPath.cgPath

leftGradientLayer.frame?=?CGRect(x:?0,?y:?topSpace,?width:?bounds.width,?height:?bounds.height?-?topSpace?-?bottomSpace)

leftGradientLayer.mask?=?leftMaskLayer

//?right?channel

if?spectra.count?>=?2?{

let?rightPath?=?UIBezierPath()

for?(i,?amplitude)?in?spectra[1].enumerated()?{

let?x?=?CGFloat(spectra[1].count?-?1?-?i)?*?(barWidth?+?space)?+?space

let?y?=?translateAmplitudeToYPosition(amplitude:?amplitude)

let?bar?=?UIBezierPath(rect:?CGRect(x:?x,?y:?y,?width:?barWidth,?height:?bounds.height?-?bottomSpace?-?y))

rightPath.append(bar)

}

let?rightMaskLayer?=?CAShapeLayer()

rightMaskLayer.path?=?rightPath.cgPath

rightGradientLayer.frame?=?CGRect(x:?0,?y:?topSpace,?width:?bounds.width,?height:?bounds.height?-?topSpace?-?bottomSpace)

rightGradientLayer.mask?=?rightMaskLayer

}

}

}

}

其中translateAmplitudeToYPosition函數(shù)的作用是將振幅轉換成視圖坐標系中的Y值:private?func?translateAmplitudeToYPosition(amplitude:?Float)?->?CGFloat{

let?barHeight:?CGFloat?=?CGFloat(amplitude)?*?(bounds.height?-?bottomSpace?-?topSpace)

return?bounds.height?-?bottomSpace?-?barHeight

}

回到ViewController,在SpectrumPlayerDelegate的方法中直接將接收到的數(shù)據(jù)交給spectrumView://?MARK:?SpectrumPlayerDelegate

extension?ViewController:?AudioSpectrumPlayerDelegate?{

func?player(_?player:?AudioSpectrumPlayer,?didGenerateSpectrum?spectra:?[[Float]])?{

DispatchQueue.main.async?{

//1:?將數(shù)據(jù)交給spectrumView

self.spectrumView.spectra?=?spectra

}

}

}

敲了這么多代碼,終于可以運行一下看看效果了!額...看上去效果好像不太妙啊。請放心,喝杯咖啡放松一下,待會一個一個來解決。

圖2 初始動畫效果

調整優(yōu)化

效果不好主要體現(xiàn)在這三點:1)動畫與音樂節(jié)奏匹配度不高;2)畫面鋸齒過多; 3)動畫閃動明顯。 首先來解決第一個問題:

節(jié)奏匹配

匹配度不高的一部分原因是目前的動畫幅度太小了,特別是中高頻部分。我們先放大個5倍看看效果,修改analyse函數(shù):func?analyse(with?buffer:?AVAudioPCMBuffer)?->?[[Float]]?{

let?channelsAmplitudes?=?fft(buffer)

var?spectra?=?[[Float]]()

for?amplitudes?in?channelsAmplitudes?{

let?spectrum?=?bands.map?{

//1:?直接在此函數(shù)調用后乘以5

findMaxAmplitude(for:?$0,?in:?amplitudes,?with:?Float(buffer.format.sampleRate)??/?Float(self.fftSize))?*?5

}

spectra.append(spectrum)

}

return?spectra

}

圖3 幅度放大5倍之后,低頻部分都超出畫面了

低頻部分的能量相比中高頻大許多,但實際上低音聽上去并沒有那么明顯,這是為什么呢?這里涉及到響度的概念:響度(loudness又稱音響或音量),是與聲強相對應的聲音大小的知覺量。聲強是客觀的物理量,響度是主觀的心理量。響度不僅跟聲強有關,還跟頻率有關。不同頻率的純音,在和1000Hz某個聲壓級純音等響時,其聲壓級也不相同。這樣的不同聲壓級,作為頻率函數(shù)所形成的曲線,稱為等響度曲線。改變這個1000Hz純音的聲壓級,可以得到一組等響度曲線。最下方的0方曲線表示人類能聽到的最小的聲音響度,即聽閾;最上方是人類能承受的最大的聲音響度,即痛閾。

圖4 橫坐標為頻率,縱坐標為聲壓級,波動的一條條曲線就是等響度曲線(equal-loudness contours),這些曲線代表著聲音的頻率和聲壓級在相同響度級中的關聯(lián)。

原來人耳對不同頻率的聲音敏感度不同,兩個聲音即使聲壓級相同,如果頻率不同那感受到的響度也不同。基于這個原因,需要采用某種頻率計權來模擬使得像人耳聽上去的那樣。常用的計權方式有A、B、C、D等,A計權最為常用,對低頻部分相比其他計權有著最多的衰減,這里也將采用A計權。

圖5 藍色曲線就是A計權,是根據(jù)40 phon的等響曲線模擬出來的反曲線

在RealtimeAnalyzer類中新建函數(shù)createFrequencyWeights(),它將返回A計權的系數(shù)數(shù)組:

private?func?createFrequencyWeights()?->?[Float]?{

let?Δf?=?44100.0?/?Float(fftSize)

let?bins?=?fftSize?/?2?//返回數(shù)組的大小

var?f?=?(0..

f?=?f.map?{?$0?*?$0?}

let?c1?=?powf(12194.217,?2.0)

let?c2?=?powf(20.598997,?2.0)

let?c3?=?powf(107.65265,?2.0)

let?c4?=?powf(737.86223,?2.0)

let?num?=?f.map?{?c1?*?$0?*?$0?}

let?den?=?f.map?{?($0?+?c2)?*?sqrtf(($0?+?c3)?*?($0?+?c4))?*?($0?+?c1)?}

let?weights?=?num.enumerated().map?{?(index,?ele)?in

return?1.2589?*?ele?/?den[index]

}

return?weights

}

更新analyse函數(shù)中的代碼:

func?analyse(with?buffer:?AVAudioPCMBuffer)?->?[[Float]]?{

let?channelsAmplitudes?=?fft(buffer)

var?spectra?=?[[Float]]()

//1:?創(chuàng)建權重數(shù)組

let?aWeights?=?createFrequencyWeights()

for?amplitudes?in?channelsAmplitudes?{

//2:原始頻譜數(shù)據(jù)依次與權重相乘

let?weightedAmplitudes?=?amplitudes.enumerated().map?{(index,?element)?in

return?element?*?aWeights[index]

}

let?spectrum?=?bands.map?{

//3:?findMaxAmplitude函數(shù)將從新的`weightedAmplitudes`中查找最大值

findMaxAmplitude(for:?$0,?in:?weightedAmplitudes,?with:?Float(buffer.format.sampleRate)??/?Float(self.fftSize))?*?5

}

spectra.append(spectrum)

}

return?spectra

}

再次運行項目看看效果,好多了是嗎?

圖6 A計權之后的動畫表現(xiàn)

鋸齒消除

接著是鋸齒過多的問題,手段是將相鄰較長的拉短較短的拉長,常見的辦法是使用加權平均。創(chuàng)建函數(shù)highlightWaveform():

private?func?highlightWaveform(spectrum:?[Float])?->?[Float]?{

//1:?定義權重數(shù)組,數(shù)組中間的5表示自己的權重

//???可以隨意修改,個數(shù)需要奇數(shù)

let?weights:?[Float]?=?[1,?2,?3,?5,?3,?2,?1]

let?totalWeights?=?Float(weights.reduce(0,?+))

let?startIndex?=?weights.count?/?2

//2:?開頭幾個不參與計算

var?averagedSpectrum?=?Array(spectrum[0..

for?i?in?startIndex..

//3:?zip作用:?zip([a,b,c],?[x,y,z])?->?[(a,x),?(b,y),?(c,z)]

let?zipped?=?zip(Array(spectrum[i?-?startIndex...i?+?startIndex]),?weights)

let?averaged?=?zipped.map?{?$0.0?*?$0.1?}.reduce(0,?+)?/?totalWeights

averagedSpectrum.append(averaged)

}

//4:末尾幾個不參與計算

averagedSpectrum.append(contentsOf:?Array(spectrum.suffix(startIndex)))

return?averagedSpectrum

}

analyse函數(shù)需要再次更新:

func?analyse(with?buffer:?AVAudioPCMBuffer)?->?[[Float]]?{

let?channelsAmplitudes?=?fft(buffer)

var?spectra?=?[[Float]]()

for?amplitudes?in?channelsAmplitudes?{

let?weightedAmplitudes?=?amplitudes.enumerated().map?{(index,?element)?in

return?element?*?weights[index]

}

let?spectrum?=?bands.map?{

findMaxAmplitude(for:?$0,?in:?weightedAmplitudes,?with:?Float(buffer.format.sampleRate)??/?Float(self.fftSize))?*?5

}

//1:?添加到數(shù)組之前調用highlightWaveform

spectra.append(highlightWaveform(spectrum:?spectrum))

}

return?spectra

}

圖7 鋸齒少了,波形變得明顯

閃動優(yōu)化

動畫閃動給人的感覺就好像丟幀一樣。造成這個問題的原因,是因為頻帶的值前后兩幀變化太大,我們可以將上一幀的值緩存起來,然后跟當前幀的值進行...沒錯,又是加權平均! (⊙﹏⊙)b 繼續(xù)開始編寫代碼,首先需要定義兩個屬性:

//緩存上一幀的值

private?var?spectrumBuffer:?[[Float]]?

//緩動系數(shù),數(shù)值越大動畫越"緩"

public?var?spectrumSmooth:?Float?=?0.5?{

didSet?{

spectrumSmooth?=?max(0.0,?spectrumSmooth)

spectrumSmooth?=?min(1.0,?spectrumSmooth)

}

}

接著修改analyse函數(shù):

func?analyse(with?buffer:?AVAudioPCMBuffer)?->?[[Float]]?{

let?channelsAmplitudes?=?fft(buffer)

let?aWeights?=?createFrequencyWeights()

//1:?初始化spectrumBuffer

if?spectrumBuffer.count?==?0?{

for?_?in?0..

spectrumBuffer.append(Array(repeating:?0,?count:?frequencyBands))

}

}

//2:?index在給spectrumBuffer賦值時需要用到

for?(index,?amplitudes)?in?channelsAmplitudes.enumerated()?{

let?weightedAmp?=?amplitudes.enumerated().map?{(index,?element)?in

return?element?*?aWeights[index]

}

var?spectrum?=?bands.map?{

findMaxAmplitude(for:?$0,?in:?weightedAmplitudes,?with:?Float(buffer.format.sampleRate)??/?Float(self.fftSize))?*?5

}

spectrum?=?highlightWaveform(spectrum:?spectrum)

//3:?zip用法前面已經介紹過了

let?zipped?=?zip(spectrumBuffer[index],?spectrum)

spectrumBuffer[index]?=?zipped.map?{?$0.0?*?spectrumSmooth?+?$0.1?*?(1?-?spectrumSmooth)?}

}

return?spectrumBuffer

}

再次運行項目,得到最終效果:

結尾

音頻頻譜的動畫實現(xiàn)到此已經全部完成。本人之前對音頻和聲學毫無經驗,兩篇文章涉及的方法理論均參考自互聯(lián)網,肯定有不少錯誤,歡迎指正。

參考資料

[1] 維基百科, 倍頻程頻帶, en.wikipedia.org/wiki/Octave…

[2] 維基百科, 響度, ?zh.wikipedia.org/wiki/%E9%9F…

[3] mathworks,A-weighting Filter with Matlab,www.mathworks.com/matlabcentr…

[4] 動畫效果:網易云音樂APP、MOO音樂APP。感興趣的同學可以用卡農鋼琴版音樂和這兩款APP進行對比^_^,會發(fā)現(xiàn)區(qū)別。作者:potato04

鏈接:https://juejin.im/post/5c26d44ae51d45619a4b8b1e

總結

以上是生活随笔為你收集整理的php绘制频谱图,一步一步教你实现iOS音频频谱动画(二)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。