99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

流數(shù)據(jù)是一個(gè)在機(jī)器學(xué)習(xí)領(lǐng)域蓬勃發(fā)展的概念

倩倩 ? 來源:讀芯術(shù) ? 2020-04-15 17:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概述

流數(shù)據(jù)是一個(gè)在機(jī)器學(xué)習(xí)領(lǐng)域蓬勃發(fā)展的概念

學(xué)習(xí)如何使用PySpark來利用機(jī)器學(xué)習(xí)模型對(duì)流數(shù)據(jù)進(jìn)行預(yù)測(cè)

我們將介紹流數(shù)據(jù)和Spark Streaming的基礎(chǔ)知識(shí),然后深入到實(shí)現(xiàn)部分

引言

想象一下——每一秒都有8,500多條推文發(fā)布,900多張照片被上傳到Instagram,4,200多個(gè)Skype呼叫,78,000多次Google搜索,以及200多萬封電子郵件被發(fā)送(數(shù)據(jù)來自InternetLive Stats)。

我們正在以前所未有的速度和規(guī)模生產(chǎn)數(shù)據(jù)。這是在數(shù)據(jù)科學(xué)領(lǐng)域工作的大好時(shí)候!但是有了大量的數(shù)據(jù)后,接踵而至的是復(fù)雜的挑戰(zhàn)。

首要,如何收集大規(guī)模的數(shù)據(jù)?如何確保一旦生成并收集數(shù)據(jù),機(jī)器學(xué)習(xí)管道就會(huì)繼續(xù)產(chǎn)生結(jié)果?這些都是業(yè)界面臨的重大挑戰(zhàn),以及為什么流數(shù)據(jù)的概念在企業(yè)中越來越受到關(guān)注。

增加處理流數(shù)據(jù)的能力將極大地?cái)U(kuò)展當(dāng)前的數(shù)據(jù)科學(xué)產(chǎn)品投資組合。這是業(yè)界急需的技能,若能熟練掌握它,將幫助你擔(dān)負(fù)起下一個(gè)數(shù)據(jù)科學(xué)角色。

因此,在本文中,我們將學(xué)習(xí)什么是流數(shù)據(jù),了解Spark Streaming的基礎(chǔ)知識(shí),然后在一個(gè)業(yè)界相關(guān)的數(shù)據(jù)集上使用Spark實(shí)現(xiàn)流數(shù)據(jù)。

什么是流數(shù)據(jù)?

社交媒體產(chǎn)生的數(shù)據(jù)是驚人的。你敢于想象存儲(chǔ)所有數(shù)據(jù)需要些什么嗎?這是一個(gè)復(fù)雜的過程!因此,在深入探討本文的Spark方面之前,先來理解什么是流數(shù)據(jù)。

流數(shù)據(jù)沒有離散的開始或結(jié)束。這些數(shù)據(jù)是每秒從數(shù)千個(gè)數(shù)據(jù)源中生成的,它們需要盡快進(jìn)行處理和分析。大量流數(shù)據(jù)需要實(shí)時(shí)處理,例如Google搜索結(jié)果。

我們知道,在事件剛發(fā)生時(shí)一些見解會(huì)更有價(jià)值,而隨著時(shí)間的流逝它們會(huì)逐漸失去價(jià)值。以體育賽事為例——我們希望看到即時(shí)分析,即時(shí)統(tǒng)計(jì)見解,在那一刻真正享受比賽,對(duì)吧?

例如,假設(shè)你正在觀看一場(chǎng)羅杰·費(fèi)德勒(Roger Federer)對(duì)戰(zhàn)諾瓦克·喬科維奇(Novak Djokovic)的激動(dòng)人心的網(wǎng)球比賽。

這場(chǎng)比賽兩局打平,你想了解與費(fèi)德勒的職業(yè)平均水平相比,其反手發(fā)球的百分比。是在幾天之后看到有意義,還是在決勝局開始前的那一刻看到有意義呢?

Spark Streaming的基礎(chǔ)知識(shí)

Spark Streaming是核心Spark API的擴(kuò)展,可實(shí)現(xiàn)實(shí)時(shí)數(shù)據(jù)流的可伸縮和容錯(cuò)流處理。

在轉(zhuǎn)到實(shí)現(xiàn)部分之前,先了解一下Spark Streaming的不同組成部分。

離散流

離散流(Dstream)是一個(gè)連續(xù)的數(shù)據(jù)流。對(duì)于離散流,其數(shù)據(jù)流可以直接從數(shù)據(jù)源接收,也可以在對(duì)原始數(shù)據(jù)進(jìn)行一些處理后接收。

構(gòu)建流應(yīng)用程序的第一步是定義要從中收集數(shù)據(jù)的數(shù)據(jù)資源的批處理持續(xù)時(shí)間。如果批處理持續(xù)時(shí)間為2秒,則將每2秒收集一次數(shù)據(jù)并將其存儲(chǔ)在RDD中。這些RDD的連續(xù)序列鏈?zhǔn)且粋€(gè)DStream,它是不可變的,可以通過Spark用作一個(gè)分布式數(shù)據(jù)集。

考慮一個(gè)典型的數(shù)據(jù)科學(xué)項(xiàng)目。在數(shù)據(jù)預(yù)處理階段,我們需要轉(zhuǎn)換變量,包括將分類變量轉(zhuǎn)換為數(shù)字變量,創(chuàng)建分箱,去除異常值和很多其他的事。Spark保留了在數(shù)據(jù)上定義的所有轉(zhuǎn)換的歷史記錄。因此,無論何時(shí)發(fā)生故障,它都可以追溯轉(zhuǎn)換的路徑并重新生成計(jì)算結(jié)果。

我們希望Spark應(yīng)用程序7 x 24小時(shí)持續(xù)運(yùn)行。并且每當(dāng)故障發(fā)生時(shí),我們都希望它能盡快恢復(fù)。但是,在大規(guī)模處理數(shù)據(jù)的同時(shí),Spark需要重新計(jì)算所有轉(zhuǎn)換以防出現(xiàn)故障??梢韵胂螅@樣做的代價(jià)可能會(huì)非常昂貴。

緩存

這是應(yīng)對(duì)該挑戰(zhàn)的一種方法。我們可以暫時(shí)存儲(chǔ)已計(jì)算(緩存)的結(jié)果,以維護(hù)在數(shù)據(jù)上定義的轉(zhuǎn)換的結(jié)果。這樣,當(dāng)發(fā)生故障時(shí),就不必一次又一次地重新計(jì)算這些轉(zhuǎn)換。

DStreams允許將流數(shù)據(jù)保留在內(nèi)存中。當(dāng)我們要對(duì)同一數(shù)據(jù)執(zhí)行多種運(yùn)算時(shí),這很有用。

檢查點(diǎn)

高速緩存在正常使用時(shí)非常有用,但是它需要大量?jī)?nèi)存。并不是每個(gè)人都有數(shù)百臺(tái)具有128 GB內(nèi)存的計(jì)算機(jī)來緩存所有內(nèi)容。

檢查點(diǎn)的概念能夠有所幫助。

檢查點(diǎn)是另一種保留轉(zhuǎn)換后的數(shù)據(jù)框結(jié)果的技術(shù)。它將不時(shí)地將正在運(yùn)行的應(yīng)用程序的狀態(tài)保存在任何可靠的存儲(chǔ)介質(zhì)(如HDFS)上。但是,它比緩存慢,靈活性也更差。

在擁有流數(shù)據(jù)時(shí)可以使用檢查點(diǎn)。轉(zhuǎn)換結(jié)果取決于先前的轉(zhuǎn)換結(jié)果,并且需要保存以供使用。此外,我們還存儲(chǔ)檢查點(diǎn)元數(shù)據(jù)信息,例如用于創(chuàng)建流數(shù)據(jù)的配置以及一系列DStream操作的結(jié)果等。

流數(shù)據(jù)的共享變量

有時(shí)候需要為必須在多個(gè)集群上執(zhí)行的Spark應(yīng)用程序定義諸如map,reduce或filter之類的函數(shù)。在函數(shù)中使用的變量會(huì)被復(fù)制到每臺(tái)機(jī)器(集群)中。

在這種情況下,每個(gè)集群都有一個(gè)不同的執(zhí)行器,我們想要一些可以賦予這些變量之間關(guān)系的東西。

例如:假設(shè)Spark應(yīng)用程序在100個(gè)不同的集群上運(yùn)行,它們捕獲了來自不同國家的人發(fā)布的Instagram圖片。

現(xiàn)在,每個(gè)集群的執(zhí)行者將計(jì)算該特定集群上的數(shù)據(jù)的結(jié)果。但是我們需要一些幫助這些集群進(jìn)行交流的東西,以便獲得匯總結(jié)果。在Spark中,我們擁有共享變量,這些變量使此問題得以克服。

累加器變量

用例包括發(fā)生錯(cuò)誤的次數(shù),空白日志的數(shù)量,我們從特定國家收到請(qǐng)求的次數(shù)——所有這些都可以使用累加器解決。

每個(gè)集群上的執(zhí)行程序?qū)?shù)據(jù)發(fā)送回驅(qū)動(dòng)程序進(jìn)程,以更新累加器變量的值。 累加器僅適用于關(guān)聯(lián)和可交換的運(yùn)算。例如,對(duì)求和和求最大值有用,而求平均值不起作用。

廣播變量

當(dāng)我們使用位置數(shù)據(jù)(例如城市名稱和郵政編碼的映射)時(shí),這些是固定變量,是吧?現(xiàn)在,如果每次在任意集群上的特定轉(zhuǎn)換都需要這種類型的數(shù)據(jù),我們不需要向驅(qū)動(dòng)程序發(fā)送請(qǐng)求,因?yàn)樗鼤?huì)太昂貴。

相反,可以在每個(gè)集群上存儲(chǔ)此數(shù)據(jù)的副本。這些類型的變量稱為廣播變量。

廣播變量允許程序員在每臺(tái)計(jì)算機(jī)上保留一個(gè)只讀變量。通常,Spark使用高效的廣播算法自動(dòng)分配廣播變量,但是如果有任務(wù)需要多個(gè)階段的相同數(shù)據(jù),也可以定義它們。

使用PySpark對(duì)流數(shù)據(jù)進(jìn)行情感分析

是時(shí)候啟動(dòng)你最喜歡的IDE了!讓我們?cè)诒竟?jié)中進(jìn)行編碼,并以實(shí)踐的方式理解流數(shù)據(jù)。

理解問題陳述

在本節(jié)我們將使用真實(shí)數(shù)據(jù)集。我們的目標(biāo)是檢測(cè)推文中的仇恨言論。為了簡(jiǎn)單起見,如果一條推文包含帶有種族主義或性別歧視情緒的言論,我們就認(rèn)為該推文包含仇恨言論。

因此,任務(wù)是將種族主義或性別歧視的推文從其他推文中區(qū)分出來。我們將使用包含推文和標(biāo)簽的訓(xùn)練樣本,其中標(biāo)簽“1”表示推文是種族主義/性別歧視的,標(biāo)簽“0”則表示其他種類。

為什么這是一個(gè)與主題相關(guān)的項(xiàng)目?因?yàn)樯缃幻襟w平臺(tái)以評(píng)論和狀態(tài)更新的形式接收龐大的流數(shù)據(jù)。該項(xiàng)目將幫助我們審核公開發(fā)布的內(nèi)容。

設(shè)置項(xiàng)目工作流程

1. 模型構(gòu)建:構(gòu)建邏輯回歸模型管道,對(duì)推文中是否包含仇恨言論進(jìn)行分類。在這里,我們的重點(diǎn)不是建立一個(gè)完全準(zhǔn)確的分類模型,而是了解如何在流數(shù)據(jù)上使用任意模型并返回結(jié)果

2. 初始化Spark Streaming的環(huán)境:一旦模型構(gòu)建完成,需要定義獲取流數(shù)據(jù)的主機(jī)名和端口號(hào)

3. 流數(shù)據(jù):接下來,從定義的端口添加來自netcat服務(wù)器的推文,SparkStreaming API將在指定的持續(xù)時(shí)間后接收數(shù)據(jù)

4. 預(yù)測(cè)并返回結(jié)果:一旦接收到推文,就將數(shù)據(jù)傳遞到創(chuàng)建的機(jī)器學(xué)習(xí)管道中,并從模型中返回預(yù)測(cè)的情緒

這是對(duì)工作流程的簡(jiǎn)潔說明:

訓(xùn)練數(shù)據(jù)以建立邏輯回歸模型

我們?cè)谝粋€(gè)CSV文件中存儲(chǔ)推文數(shù)據(jù)及其相應(yīng)的標(biāo)簽。使用邏輯回歸模型來預(yù)測(cè)推文是否包含仇恨言論。如果是,則模型預(yù)測(cè)標(biāo)簽為1(否則為0)。你可以參考“面向初學(xué)者的PySpark”來設(shè)置Spark環(huán)境。

可以在這里下載數(shù)據(jù)集和代碼。

首先,需要定義CSV文件的模式。否則,Spark會(huì)將每列數(shù)據(jù)的類型都視為字符串。讀取數(shù)據(jù)并檢查模式是否符合定義:

# importing required libraries

from pyspark import SparkContext

from pyspark.sql.session import SparkSession

from pyspark.streaming import StreamingContext

import pyspark.sql.types as tp

from pyspark.ml import Pipeline

from pyspark.ml.feature import StringIndexer, OneHotEncoderEstimator, VectorAssembler

from pyspark.ml.feature import StopWordsRemover, Word2Vec, RegexTokenizer

from pyspark.ml.classification import LogisticRegression

from pyspark.sql import Row

# initializing spark session

sc = SparkContext(appName=“PySparkShell”)

spark = SparkSession(sc)

# define the schema

my_schema = tp.StructType([

tp.StructField(name=‘id’, dataType= tp.IntegerType(), nullable=True),

tp.StructField(name=‘label’, dataType= tp.IntegerType(), nullable=True),

tp.StructField(name=‘tweet’, dataType= tp.StringType(), nullable=True)

])

# read the dataset

my_data = spark.read.csv(‘twitter_sentiments.csv’,

schema=my_schema,

header=True)

# view the data

my_data.show(5)

# print the schema of the file

my_data.printSchema()

定義機(jī)器學(xué)習(xí)管道的各個(gè)階段

現(xiàn)在已經(jīng)將數(shù)據(jù)保存在Spark數(shù)據(jù)框中,需要定義轉(zhuǎn)換數(shù)據(jù)的不同階段,然后使用它從模型中獲取預(yù)測(cè)的標(biāo)簽。

在第一階段,使用RegexTokenizer將推特文本轉(zhuǎn)換為單詞列表。然后,從單詞列表中刪除停用詞并創(chuàng)建詞向量。在最后階段,使用這些詞向量來構(gòu)建邏輯回歸模型并獲得預(yù)測(cè)的情緒。

記住——重點(diǎn)不是建立一個(gè)完全準(zhǔn)確的分類模型,而是要看看如何在流數(shù)據(jù)上使用預(yù)測(cè)模型來獲取結(jié)果。

# define stage 1: tokenize the tweet text

stage_1 = RegexTokenizer(inputCol=‘tweet’ , outputCol=‘tokens’, pattern=‘\\W’)

# define stage 2: remove the stop words

stage_2 = StopWordsRemover(inputCol=‘tokens’, outputCol=‘filtered_words’)

# define stage 3: create a word vector of the size 100

stage_3 = Word2Vec(inputCol=‘filtered_words’, outputCol=‘vector’, vectorSize=100)

# define stage 4: Logistic Regression Model

model = LogisticRegression(featuresCol=‘vector’, labelCol=‘label’)

設(shè)置機(jī)器學(xué)習(xí)管道

讓我們?cè)赑ipeline對(duì)象中添加階段,然后按順序執(zhí)行這些轉(zhuǎn)換。用訓(xùn)練數(shù)據(jù)集擬合管道,現(xiàn)在,每當(dāng)有了新的推文,只需要將其傳遞給管道對(duì)象并轉(zhuǎn)換數(shù)據(jù)即可獲取預(yù)測(cè):

# setup the pipeline

pipeline = Pipeline(stages= [stage_1, stage_2, stage_3, model])

# fit the pipeline model with the training data

pipelineFit = pipeline.fit(my_data)

流數(shù)據(jù)和返回結(jié)果

假設(shè)每秒收到數(shù)百條評(píng)論,我們希望通過阻止用戶發(fā)布仇恨言論來保持平臺(tái)整潔。因此,每當(dāng)我們收到新文本,都會(huì)將其傳遞到管道中并獲得預(yù)測(cè)的情緒。

我們將定義一個(gè)函數(shù)get_prediction,該函數(shù)將刪除空白句子并創(chuàng)建一個(gè)數(shù)據(jù)框,其中每一行都包含一條推文。

初始化Spark Streaming的環(huán)境并定義3秒的批處理持續(xù)時(shí)間。這意味著我們將對(duì)每3秒收到的數(shù)據(jù)進(jìn)行預(yù)測(cè):

# define a function to compute sentiments of the received tweets

defget_prediction(tweet_text):

try:

# filter the tweets whose length is greater than 0

tweet_text = tweet_text.filter(lambda x: len(x) 》0)

# create a dataframe with column name ‘tweet’ and each row will contain the tweet

rowRdd = tweet_text.map(lambda w: Row(tweet=w))

# create a spark dataframe

wordsDataFrame = spark.createDataFrame(rowRdd)

# transform the data using the pipeline and get the predicted sentiment

pipelineFit.transform(wordsDataFrame).select(‘tweet’,‘prediction’).show()

except :

print(‘No data’)

# initialize the streaming context

ssc = StreamingContext(sc, batchDuration=3)

# Create a DStream that will connect to hostname:port, like localhost:9991

lines = ssc.socketTextStream(sys.argv[1], int(sys.argv[2]))

# split the tweet text by a keyword ‘TWEET_APP’ so that we can identify which set of words is from a single tweet

words = lines.flatMap(lambda line : line.split(‘TWEET_APP’))

# get the predicted sentiments for the tweets received

words.foreachRDD(get_prediction)

# Start the computation

ssc.start()

# Wait for the computation to terminate

ssc.awaitTermination()

在一個(gè)終端上運(yùn)行該程序,然后使用Netcat(用于將數(shù)據(jù)發(fā)送到定義的主機(jī)名和端口號(hào)的實(shí)用工具)。你可以使用以下命令啟動(dòng)TCP連接:

nc -lk port_number

最后,在第二個(gè)終端中鍵入文本,你將在另一個(gè)終端中實(shí)時(shí)獲得預(yù)測(cè)。

完美!

結(jié)語

流數(shù)據(jù)在未來幾年只會(huì)越來越熱門,因此應(yīng)該真正開始熟悉這一主題。請(qǐng)記住,數(shù)據(jù)科學(xué)不只是建立模型——整個(gè)流程都需要關(guān)注。

本文介紹了SparkStreaming的基礎(chǔ)知識(shí)以及如何在真實(shí)的數(shù)據(jù)集上實(shí)現(xiàn)它。我鼓勵(lì)大家使用另一個(gè)數(shù)據(jù)集或抓取實(shí)時(shí)數(shù)據(jù)來實(shí)現(xiàn)剛剛介紹的內(nèi)容(你也可以嘗試其他模型)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    CES Asia 2025蓄勢(shì)待發(fā),聚焦低空經(jīng)濟(jì)與AI,引領(lǐng)未來產(chǎn)業(yè)新變革

    。 低空經(jīng)濟(jì),作為新興的戰(zhàn)略性產(chǎn)業(yè),正處于蓬勃發(fā)展的黃金時(shí)期。隨著相關(guān)技術(shù)的不斷突破,低空經(jīng)濟(jì)的應(yīng)用場(chǎng)景得到了極大拓展。新型的載人飛行器不斷涌現(xiàn),其設(shè)計(jì)更加人性化、功能更加多元化,為未來的低空出行提供了更多
    發(fā)表于 07-09 10:29

    肇觀電子推出智能3D深度相機(jī)自標(biāo)定技術(shù)

    智能機(jī)器人與無人機(jī)產(chǎn)業(yè)蓬勃發(fā)展的當(dāng)下,核心技術(shù)的創(chuàng)新突破正成為重塑行業(yè)格局的關(guān)鍵力量。
    的頭像 發(fā)表于 05-15 17:57 ?575次閱讀

    人工智能和機(jī)器學(xué)習(xí)以及Edge AI的概念與應(yīng)用

    與人工智能相關(guān)各種技術(shù)的概念介紹,以及先進(jìn)的Edge AI(邊緣人工智能)的最新發(fā)展與相關(guān)應(yīng)用。 人工智能和機(jī)器學(xué)習(xí)是現(xiàn)代科技的核心技術(shù) 人工智能(AI)和
    的頭像 發(fā)表于 01-25 17:37 ?942次閱讀
    人工智能和<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>以及Edge AI的<b class='flag-5'>概念</b>與應(yīng)用

    LITESTAR 4D在建筑外墻照明中的應(yīng)用

    隨著城市建設(shè)的不斷發(fā)展,人民經(jīng)濟(jì)、文化和物質(zhì)生活水平迅速提高,城市夜景照明得到蓬勃發(fā)展,已成為城市建設(shè)的個(gè)重要組成部分。 以下是由Litestar 4D關(guān)于建筑照明的案例 1.工程
    發(fā)表于 01-24 08:47

    光伏產(chǎn)業(yè)的發(fā)展歷程:從萌芽到蓬勃發(fā)展

    成果開啟了光伏技術(shù)發(fā)展的大門。 隨后的幾十年里,光伏技術(shù)不斷演進(jìn),轉(zhuǎn)換效率逐步提高,但由于成本居高不下,光伏產(chǎn)業(yè)發(fā)展緩慢,主要應(yīng)用于航天、通信等對(duì)成本不敏感的領(lǐng)域。直到 20 世紀(jì)
    的頭像 發(fā)表于 01-23 14:29 ?638次閱讀

    AI主導(dǎo)下科技領(lǐng)域蓬勃發(fā)展與變革

    24 位行業(yè)領(lǐng)袖的深度訪談,為我們揭示了 2025 年極具影響力的科技趨勢(shì),展現(xiàn)出 AI 主導(dǎo)下科技領(lǐng)域蓬勃發(fā)展與變革。 、AI 驅(qū)動(dòng)的科技變革核心地位 AI 和生成式 AI 是貫穿報(bào)告中諸多科技趨勢(shì)的核心驅(qū)動(dòng)力。從企業(yè)運(yùn)
    的頭像 發(fā)表于 01-23 13:58 ?719次閱讀

    復(fù)合機(jī)器人:點(diǎn)亮汽車制造新未來

    汽車產(chǎn)業(yè)蓬勃發(fā)展的浪潮中,追求更高的生產(chǎn)效率、更卓越的產(chǎn)品質(zhì)量成為了車企決勝市場(chǎng)的關(guān)鍵。而復(fù)合機(jī)器人宛如顆閃耀的科技明珠,正深度賦能汽車制造領(lǐng)域
    的頭像 發(fā)表于 12-24 17:35 ?577次閱讀
    復(fù)合<b class='flag-5'>機(jī)器</b>人:點(diǎn)亮汽車制造新未來

    LITESTAR 4D在建筑外墻照明中的應(yīng)用

    隨著城市建設(shè)的不斷發(fā)展,人民經(jīng)濟(jì)、文化和物質(zhì)生活水平迅速提高,城市夜景照明得到蓬勃發(fā)展,已成為城市建設(shè)的個(gè)重要組成部分。 以下是由Litestar 4D關(guān)于建筑照明的案例 1.工程
    發(fā)表于 12-13 09:51

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡(jiǎn)稱ML)是人工智能的個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)學(xué)習(xí)并做出預(yù)測(cè)或決策。自然語言處理與
    的頭像 發(fā)表于 12-05 15:21 ?1991次閱讀

    海外儲(chǔ)能市場(chǎng)蓬勃發(fā)展,儲(chǔ)能配電表扮演關(guān)鍵角色

    ,德國、意大利、日本、美國和澳大利亞是主要市場(chǎng),占全球累計(jì)裝機(jī)容量的88%。這一數(shù)據(jù)不僅反映了戶儲(chǔ)市場(chǎng)的巨大潛力,也揭示了歐美國家在這一領(lǐng)域的領(lǐng)先地位。海外戶儲(chǔ)市場(chǎng)的蓬勃發(fā)展,得益于多種因素的共同推動(dòng)
    的頭像 發(fā)表于 11-06 16:02 ?980次閱讀
    海外儲(chǔ)能市場(chǎng)<b class='flag-5'>蓬勃發(fā)展</b>,儲(chǔ)能配電表扮演關(guān)鍵角色

    制造商利用云技術(shù)優(yōu)化深度學(xué)習(xí)機(jī)器視覺的運(yùn)行效率

    機(jī)器視覺,作為推動(dòng)中國制造業(yè)蓬勃發(fā)展的關(guān)鍵技術(shù),已在半導(dǎo)體、電子制造、汽車、醫(yī)藥及食品包裝等多個(gè)領(lǐng)域展現(xiàn)其廣泛應(yīng)用價(jià)值。在此背景下,高工產(chǎn)業(yè)研究所(GGII)預(yù)測(cè),至2024年,中國機(jī)器
    的頭像 發(fā)表于 10-22 14:10 ?638次閱讀

    LEM國產(chǎn)替代:芯森傳感器助力中國機(jī)器人行業(yè)蓬勃發(fā)展

    中國機(jī)器人行業(yè)近年來呈現(xiàn)出蓬勃發(fā)展的態(tài)勢(shì),2023 年我國機(jī)器人產(chǎn)業(yè)規(guī)模超 200 億元,已連續(xù)多年穩(wěn)坐世界最大機(jī)器人消費(fèi)國地位,中國機(jī)器
    的頭像 發(fā)表于 10-12 10:57 ?599次閱讀
    LEM國產(chǎn)替代:芯森傳感器助力中國<b class='flag-5'>機(jī)器</b>人行業(yè)<b class='flag-5'>蓬勃發(fā)展</b>

    音圈電機(jī)無人機(jī)蓬勃發(fā)展

    7月10日,中國民航局局長宋志勇國新辦發(fā)布會(huì)上表示:2024年上半年,我國新注冊(cè)無人機(jī)超60萬架,較去年年底增長了48%,這一數(shù)據(jù)顯示我國低空經(jīng)濟(jì)正在步入個(gè)快速成長的新階段。 而為
    的頭像 發(fā)表于 08-14 08:15 ?411次閱讀
    音圈電機(jī)無人機(jī)<b class='flag-5'>蓬勃發(fā)展</b>

    【《時(shí)間序列與機(jī)器學(xué)習(xí)》閱讀體驗(yàn)】+ 了解時(shí)間序列

    收到《時(shí)間序列與機(jī)器學(xué)習(xí)書,彩色印刷,公式代碼清晰,非常精美。感謝作者,感謝電子發(fā)燒友提供了個(gè)讓我
    發(fā)表于 08-11 17:55

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書概覽與時(shí)間序列概述

    的應(yīng)用也很廣泛,用機(jī)器學(xué)習(xí)為時(shí)間分析帶來新的可能性。人們往往可以通過過往的時(shí)間序列數(shù)據(jù)來預(yù)測(cè)未來,各行各業(yè)中都有很好的應(yīng)用與發(fā)展前景。 時(shí)
    發(fā)表于 08-07 23:03