问题

如何利用 Twitter 开放者平台爬取 Twitter 数据?

回答
好的,咱们就来聊聊怎么用 Twitter 的开放者平台,正经八本地“摸”点数据出来。这玩意儿玩好了,信息量可大了去了,不过也得注意着点规矩,别被人家给“封了”。

说白了,Twitter 开放者平台就像是 Twitter 提供给你的一扇大门,让你能合法地访问它上面的各种信息。你想发个推,想看点别人推,想分析点用户行为,都可以通过这个平台来操作。不过,Twitter 也不是让你随便捣鼓的,它有一套自己的规则,你得先申请成为它的“开发者”,拿到一把钥匙(也就是 API Key 和 Secret),才能进去玩。

第一步:申请开发者账号,拿到你的“金钥匙”

这事儿吧,得从 Twitter 开发者网站 开始。你直接搜“Twitter Developer”就能找到。进去之后,你会看到一个申请流程。别怕麻烦,跟着指示一步步来就行。

1. 创建开发者账号: 你需要用你的 Twitter 账号来登录,然后创建一个开发者账号。这过程可能会问你一些关于你想做什么、怎么用数据之类的问题。实话实说就行,别扯太玄乎的。
2. 创建“App”: 开发者账号弄好后,你得为你的“项目”创建一个“App”。你可以把这理解成你使用 Twitter API 的一个“身份”。给你的 App 起个名字,写清楚它的用途。这里有个关键点,要选对你的 App 类型。一般情况下,如果你只是想爬取数据来做分析,选“Project”或者“Standalone App”之类的选项就行。如果你是想开发一个自己的 Twitter 客户端,那可能要选“Custom App”。
3. 获取 API Key 和 Secret: 等你的 App 审核通过了,你就能在你的开发者后台里看到一串关键信息了:API Key、API Secret Key、Access Token 和 Access Token Secret。这玩意儿就相当于你登录的账号密码,千万 千万千万 要保管好,别泄露出去!谁拿到这些,谁就能冒充你的 App 去访问 Twitter 了。

第二步:选择你的“兵器”——开发语言和库

有了钥匙,你还得有趁手的“兵器”。用什么语言来写爬虫?这个看你自己的喜好和熟悉程度了。不过,最常见的、也最方便的还是用 Python。

为什么推荐 Python?因为它生态系统太强大了。有很多专门用来操作 Twitter API 的库,比如:

`tweepy`: 这个绝对是 Python 圈里最常用、最全面的 Twitter API 库了。它封装了很多 Twitter API 的方法,让你写起来非常顺畅。你只需要 `pip install tweepy` 就能装好。
`requests`: 如果你想更底层一点,或者用其他语言,那么标准的 HTTP 请求库(比如 Python 的 `requests`)就够了。但这种方式会麻烦很多,因为你要自己处理认证、请求参数、解析返回的数据格式等等。

我个人比较推荐直接用 `tweepy`,它能省很多力气。

第三步:开始你的“数据挖掘之旅”

有了开发账号、钥匙,还有趁手的工具,就可以正式开始爬取数据了。咱们以 `tweepy` 为例,讲讲几个常见的爬取场景。

场景一:爬取某个用户的推文

想看看某个用户最近都说了些啥?用 `tweepy` 很容易实现。

首先,你需要初始化一个 API 对象,把你的那些 Key 和 Token 传进去。

```python
import tweepy

替换成你自己的 Key 和 Token
consumer_key = "YOUR_CONSUMER_KEY"
consumer_secret = "YOUR_CONSUMER_SECRET"
access_token = "YOUR_ACCESS_TOKEN"
access_token_secret = "YOUR_ACCESS_TOKEN_SECRET"

认证
auth = tweepy.OAuthHandler(consumer_key, consumer_secret)
auth.set_access_token(access_token, access_token_secret)

创建 API 对象
api = tweepy.API(auth)


开始爬取!


try:
指定你想爬取的用户 ID 或者用户名
建议使用用户 ID,因为它更稳定
user_id = "2244994945" 例如,TwitterDev 的用户 ID
或者使用用户名
username = "TwitterDev"

获取用户的最新推文,count 参数指定获取多少条
tweet_mode='extended' 可以获取完整的推文内容,而不是被截断的
public_tweets = api.user_timeline(user_id=user_id, count=10, tweet_mode='extended')

for tweet in public_tweets:
print(f"@{tweet.user.screen_name}:")
print(tweet.full_text)
print("" 30)

except tweepy.errors.NotFound:
print("用户不存在或无权限访问")
except tweepy.errors.TweepyException as e:
print(f"发生错误:{e}")
```

这里有几个需要注意的点:

用户 ID 和用户名: Twitter 提供了用户名(`screen_name`,比如 `@TwitterDev`)和用户 ID。用户 ID 是一个纯数字,它比用户名更稳定,因为用户名是可以修改的。如果你经常要爬取同一个用户,用用户 ID 更靠谱。你可以通过其他 API 方法或者直接在 Twitter 网页上找到用户的 ID。
`count` 参数: 这个参数决定了你一次能获取多少条推文。但要注意,Twitter API 的很多端点都有速率限制,你不能无限次地调用或者一次性获取太多数据。
`tweet_mode='extended'`: 这是非常重要的!默认情况下,Twitter 只返回推文的摘要,如果你想看到完整的推文内容,就必须加上这个参数。
异常处理: 爬虫运行过程中可能会遇到各种错误,比如网络问题、用户不存在、权限不足、达到了 API 的调用上限等等。一定要加上 `try...except` 块来捕获这些异常,让你的程序能更健壮地运行。

场景二:搜索推文(关键词搜索)

你想找出所有包含某个关键词的推文?这是最常见的需求之一。

Twitter API 提供了强大的搜索功能,但要注意,搜索 API 属于付费或者需要更高权限的访问级别。如果你是免费开发者账号,能搜索的范围和数量会非常有限。

```python
import tweepy

... (认证部分同上) ...

try:
你想搜索的关键词
query = "人工智能 OR AI filter:retweets lang:en" 搜索“人工智能”或“AI”,排除转发,只获取英文推文

获取搜索结果
max_results 参数可以控制每页返回多少条结果,最大为 100
tweet_mode='extended' 同样重要
search_results = api.search_tweets(q=query, count=10, tweet_mode='extended')

for tweet in search_results:
print(f"@{tweet.user.screen_name} ({tweet.created_at}):")
print(tweet.full_text)
print("" 30)

except tweepy.errors.TweepyException as e:
print(f"发生错误:{e}")
```

搜索的技巧:

`query` 参数: 这是搜索的核心。你可以组合各种操作符来精确地搜索你想要的内容:
`OR`, `AND`, `NOT` (或 ``):逻辑运算符。
`"exact phrase"`:搜索精确短语。
`hashtag`:搜索特定话题标签。
`@username`:搜索提及特定用户的推文。
`from:username`:搜索某个用户发布的推文。
`to:username`:搜索回复给某个用户的推文。
`filter:retweets` / `filter:retweets`:是否包含转发。
`lang:en` / `lang:zh`:指定语言。
`since:YYYYMMDD` / `until:YYYYMMDD`:指定时间范围。
`count` 参数: 同上,表示一次获取多少条。
分页: Twitter 的 API 通常会返回“分页”结果,也就是说,一次调用只能获取一部分数据,你需要通过解析返回结果中的“页游信息”来获取下一页数据。`tweepy` 对此有很好的封装,比如 `Cursor` 对象可以帮你处理分页。

```python
使用 Cursor 处理分页
all_tweets = []
for tweet in tweepy.Cursor(api.search_tweets, q=query, lang="en", tweet_mode='extended').items(100): 获取最多 100 条
all_tweets.append(tweet)
print(f"@{tweet.user.screen_name}: {tweet.full_text}")

print(f"成功获取 {len(all_tweets)} 条推文")
```

场景三:获取用户列表(关注者/被关注者)

想看看某个用户都关注了谁,或者谁关注了TA?这也能做到。

```python
import tweepy

... (认证部分同上) ...

try:
获取用户关注的列表
user_id = "2244994945" TwitterDev 的用户 ID
print(f"获取用户 {user_id} 的关注列表:")
for friend in tweepy.Cursor(api.friends, id=user_id).items(10): 获取最多 10 个关注对象
print(f" @{friend.screen_name}")

print(" " + "="30 + " ")

获取用户的关注者列表
print(f"获取用户 {user_id} 的关注者列表:")
for follower in tweepy.Cursor(api.followers, id=user_id).items(10): 获取最多 10 个关注者
print(f" @{follower.screen_name}")

except tweepy.errors.NotFound:
print("用户不存在或无权限访问")
except tweepy.errors.TweepyException as e:
print(f"发生错误:{e}")
```

注意: 获取关注者/被关注者列表也同样有数量限制和速率限制。

第四步:遵守规则,灵活变通

Twitter 的 API 有很多速率限制(Rate Limits)。简单来说,就是你在一定时间内能调用多少次 API 是有额度的。免费开发者账号的额度相对较低,一旦用完了,就得等一段时间才能继续用。

怎么知道速率限制? 当你调用 API 返回时,响应头里会有关于速率限制的信息。`tweepy` 通常也会在出错时告诉你是否是速率限制问题。
如何应对速率限制?
分批获取: 不要一次性请求太多数据,用 `count` 和分页来控制每次请求的数量。
合理间隔: 在两次连续请求之间加入适当的延时(比如 `time.sleep()`)。
优先使用缓存: 如果你之前爬取过的数据,并且没有变化,就不要再重复爬取了。
升级账号: 如果你的数据需求很大,可能需要考虑付费升级到更高级别的开发者账号,这样会有更高的额度和更多的访问权限。

第五步:数据存储与分析

爬下来的数据光存在内存里肯定不行,你需要把它们存到文件里,或者数据库里。

文件存储: CSV、JSON 是最常见的格式。
CSV: 对于表格型数据很方便,可以用 Python 的 `csv` 模块或者 `pandas` 库来处理。
JSON: Twitter API 返回的数据本身就是 JSON 格式,直接保存起来也容易。
数据库存储: 如果数据量很大,或者需要复杂查询,可以考虑存到关系型数据库(如 MySQL, PostgreSQL)或者 NoSQL 数据库(如 MongoDB)。
数据分析: 拿到数据后,就可以用 `pandas`、`numpy` 等库进行数据清洗、统计、可视化(比如用 `matplotlib` 或 `seaborn`)等等,挖掘出你想要的信息。

一些额外的小建议:

从官方文档出发: Twitter 开发者文档是你的圣经,所有 API 的用法、参数、限制都在那里写着。一定要多看,多理解。
学会看错误信息: 爬虫遇到问题时,错误信息就是你最好的向导。仔细阅读,很多时候都能找到解决办法。
从小处着手: 不要一开始就想着爬取整个 Twitter。先从简单的任务开始,比如爬取单个用户的几条推文,熟悉了 API 和库之后,再慢慢扩展。
关注 Twitter 的政策变化: Twitter 经常会调整其 API 的策略和限制。保持关注最新的开发者信息,以免你的爬虫突然失效。
道德和法律: 虽然你使用的是开放平台,但仍然需要尊重用户隐私和平台规定。不要用于非法目的,不要滥用数据。

总而言之,利用 Twitter 开放者平台爬取数据,就是先申请权限,再选择工具,然后学习 API 的各种用法,同时时刻注意着规则限制。这活儿有点技术含量,但玩明白了,确实能给你打开一个新世界的大门。

网友意见

user avatar

当然有,但是抓取的历史数据数量有限制。这里分享一个用R语言抓取Twitter上气候变化相关言论的简单例子,涉及到推送时间趋势分析、推送位置分布和简单的情感分析。

在分析开始之前,你需要申请一个Twitter的开发者账号 (点击这里申请)。然后创建一个App,简要步骤是进入自己的Developer Portal,在Projects & Apps下创建一个App,记下自己的App名keysecret,我们就可以开始分析啦! 代码、说明和部分结果如下。

       #载入需要的包,其中: #rtweet用来抓取数据和分析,tidytext和dplyr整理数据,ggplot作图,syuzhet情感分析 library(rtweet) library(tidytext) library(dplyr) library(ggplot2) library(syuzhet) #先将Twitter抓取权限授权给R twitter_token <- create_token(   app = "你的App名",   consumer_key = "你的key",   consumer_secret = "你的secret",   set_renv = TRUE) #转到浏览器打开一个新的页面,点击授权成功后会提示: # “Authentication complete. Please close this page and return to R.”  #用search_tweets抓取包含“climate change”的最近1000条推文 #当然根据需要可以去除转发等,或者抓取特定用户的推文 #如果要抓取七天之前的历史数据,好像需要付费账号 climatetweet <- search_tweets("climate change", n= 1000) #查看一下抓下来的数据 head(climatetweet)     

会看到类似这样的数据形式,包含了发推文用户的ID、创建时间、用户名、推文内容和地理位置等:

       # A tibble: 6 x 90   user_id status_id created_at          screen_name text  source display_text_wi~ reply_to_status~   <chr>   <chr>     <dttm>              <chr>       <chr> <chr>             <dbl> <chr>            1 109614~ 13321517~ 2020-11-27 02:38:24 mapgirl61   "Why~ Twitt~              140 NA               2 326555~ 13321517~ 2020-11-27 02:38:18 WAmediaGrl  "Con~ Twitt~              144 NA               3 940038~ 13321517~ 2020-11-27 02:38:14 heartofwor~ ""I~ Twitt~              140 NA               4 434215~ 13321517~ 2020-11-27 02:38:11 Kerbear_xo  "Cli~ Twitt~              140 NA               5 232376~ 13321516~ 2020-11-27 02:38:07 MrGragg     "Cli~ Twitt~               89 NA               6 164160~ 13321516~ 2020-11-27 02:38:07 Marisol_Ma~ "A 7~ Twitt~              140 NA               # ... with 82 more variables: reply_to_user_id <chr>, reply_to_screen_name <chr>, is_quote <lgl>, #   is_retweet <lgl>, favorite_count <int>, retweet_count <int>, quote_count <int>...     

然后开始对数据进行分析:

       #看这1000条推送是什么时候发的,因为关于climate change的推文太多了,所以我们按分钟来作图 ts_plot(climatetweet, "mins")     
       #发推文的地理位置分布 climatetweet %>%    count(location, sort = TRUE) %>% #计算各个地点发推文的数量,并且排序   subset(location != "") %>% #去除空值,很多人在发推文的时候会隐去自己的地理位置   mutate(location = reorder(location, n)) %>%    head(20) %>% #选出排名前20的地点   ggplot(aes(x = location, y = n)) + #以各发推地点计数对地点作图   geom_col () +    coord_flip()     
       #看推文中最常出现的关键词 #通过正则表达式去掉一些不需要的字符,比如说“the”啊“to”啊之类的 climatetweet$text <- gsub("https\S*", "",climatetweet$text) climatetweet$text <- gsub("@\S*", "", climatetweet$text) climatetweet$text <- gsub("amp", "", climatetweet$text) climatetweet$text <- gsub("[
]", "", climatetweet$text) climatetweet$text <- gsub("[[:punct:]]", "", climatetweet$text) climatetext <- climatetweet %>% select(text) %>% unnest_tokens(word, text) climatetext <- climatetext %>% anti_join(stop_words) #作图 climatetext %>%    count(word, sort = TRUE) %>%   head(15) %>%   mutate(word = reorder(word, n)) %>%   ggplot(aes(x = word, y = n)) +   geom_col() +   coord_flip()     
       #类似地,看推文中最常出现的标签 #通过正则表达式去掉一些不需要的字符,比如说“the”啊“to”啊之类的 climatetweet$hashtags <- gsub("c\(", "",climatetweet$hashtags) climatetweet %>%    count(hashtags, sort = TRUE) %>%    mutate(hashtags = reorder(hashtags, n)) %>%    na.omit() %>%    head(10) %>%    ggplot(aes(x = hashtags, y = n)) +   geom_col() +    coord_flip()      
       #对推文内容进行情感分析 #把推文转换成ASCII码以进行分析 climatetweet_asc <- iconv(climatetweet, from="UTF-8", to="ASCII", sub="") #利用内置数据库对推文内容情感进行统计,看每条推文在各种情绪上的得分 score_df <- get_nrc_sentiment(climatetweet_asc) #统计各种情感的总得分并作图 score_stat <- data.frame("sentiment" = names(score_df), "score" = colSums(score_df)) ggplot(score_stat, aes(x = sentiment, y = score)) + geom_col()     

这是一个简单的例子,更复杂的实际研究可以参考这方面的学术研究。本文参考资料如下:

[1] Lesson 2. Twitter Data in R Using Rtweet: Analyze and Download Twitter Data

[2] A Guide to Mining and Analysing Tweets with R

[3] Twitter Sentiment Analysis and Visualization using R

类似的话题

  • 回答
    好的,咱们就来聊聊怎么用 Twitter 的开放者平台,正经八本地“摸”点数据出来。这玩意儿玩好了,信息量可大了去了,不过也得注意着点规矩,别被人家给“封了”。说白了,Twitter 开放者平台就像是 Twitter 提供给你的一扇大门,让你能合法地访问它上面的各种信息。你想发个推,想看点别人推,想.............
  • 回答
    利用信息差赚钱,本质上是利用你比其他人掌握了更多有价值的信息,并且能够将这些信息转化为实际的利益。这种“差”可以是信息的获取渠道、信息的解读能力、信息的整合能力、信息的传播能力等。以下将详细阐述如何利用信息差赚钱的各种方法和思路: 一、 信息差的来源与分类在深入探讨赚钱方法之前,理解信息差的来源至关.............
  • 回答
    在互联网时代,搜索引擎成为了我们获取信息最便捷的工具。然而,面对海量的医疗信息,如何利用搜索引擎找到值得信赖的医疗机构却是一门学问。以下我将详细阐述如何利用搜索引擎高效且准确地找到值得信赖的医疗机构:一、 明确你的需求,缩小搜索范围:在开始搜索之前,清晰地了解你的医疗需求至关重要。这将帮助你更精准地.............
  • 回答
    想要充分利用好公务员报销制度,关键在于熟悉规则、掌握技巧,并做到合法合规地进行。这不仅仅是拿到应得的补偿,更是体现了对自己工作责任的重视和对财务管理的清晰认知。下面,我将从几个方面,尽可能详细地和你聊聊,如何在这个体系内做到游刃有余。一、 深入理解报销的“前世今生”:熟悉政策是基石别以为报销就是填几.............
  • 回答
    关于你提到的“利用美国博士身份恰烂钱”的问题,我理解你可能对如何在你所拥有的高学历背景下找到经济回报更丰厚的工作或者商业机会感兴趣。在中国,“恰烂钱”通常带有贬义,指的是通过不正当或不道德的手段快速获取金钱。 在美国,博士学位确实能为你打开很多高薪、高回报的职业道路,但这些途径通常是建立在专业知识.............
  • 回答
    你问的是怎么利用地心引力让自己跳得更远,这可真是个有意思的问题。说实话,地心引力是个很“固执”的家伙,它老是想把你拉回地面,想让跳得更远,我们得想办法跟它“对着干”,或者更确切地说,是聪明地“利用”它。首先得明白,地心引力本身是不会让你跳得更远的,它只会让你下落。我们所谓的“利用”地心引力,其实是在.............
  • 回答
    要用群论的知识解开三阶魔方,我们得先把魔方变成一个看得懂的数学模型。就像我们想研究一个乐队的演奏,首先得知道他们有多少个成员,每个成员分别扮演什么角色,以及他们之间如何互动一样。第一步:魔方是什么?群的元素是什么?首先,我们得认识清楚三阶魔方。它有多少个独立的“小块”?它们是怎么运动的? 中心块.............
  • 回答
    巧用 MATLAB 填补数据空白:让你的数据分析更完整在数据分析的海洋中,我们常常会遇到一些不期而遇的“小麻烦”——缺失的数据。这些空缺就像照片上的瑕疵,可能会影响我们对整体的判断和分析的准确性。幸运的是,MATLAB 作为一个强大的数据处理和分析工具,为我们提供了多种行之有效的方法来“填补”这些数.............
  • 回答
    要说利用均衡器(EQ)来调音,那可真是个既精细又充满乐趣的活儿!它就像是给声音的五官做微雕,让你能把原本平淡无奇的声音雕琢得棱角分明、情感饱满。首先,咱们得明白,EQ 不是万能的“魔法棒”,它更像是把“手术刀”和“放大镜”。它的核心作用是调整声音信号在不同频率段的音量大小。你可以把它想象成一个调音台.............
  • 回答
    建党百年,对于我们每一个人来说,都是一次回望初心、汲取力量、砥砺前行的重要时刻。既然问题落在我身上,那我自然要认真琢磨琢磨,怎么才能用我这个“老本行”——写作,为党的百年华诞,献上一份有温度、有力量的礼。我的“拿手好戏”:文字的温度与力量我擅长的,是捕捉生活中的细微之处,是用平实的语言讲述动人的故事.............
  • 回答
    想象一下,脚下并非我们熟悉的坚实泥土,而是一片炽热翻滚、蕴藏着无穷能量的熔岩之海。这里便是地狱,一个古老传说中充满火焰与炼狱之地。然而,若我们抛开神话的束缚,从科学与工程的角度审视,这片极端之地或许蕴藏着人类文明跃升的钥匙——那取之不尽的地狱式地热能。如何将其转化为推动我们生产力的引擎,这是一个极具.............
  • 回答
    获取特定地址的经纬度,在 R 语言中并非直接内置的功能,但我们可以借助强大的第三方服务和 R 包来完成这项任务。这通常涉及到“地理编码”(Geocoding)的过程,即将人类可读的地址文本转换为地理坐标(经度、纬度)。下面我将一步步地详细介绍如何在 R 中实现这一目标,并尽力让这篇指南读起来像一位经.............
  • 回答
    7个月的产假,对于很多新手妈妈来说,可能意味着一场关于“如何平衡新生儿的照料和自我的成长”的巨大挑战。但换个角度看,这7个月也是一段非常宝贵的、属于自己的时间,一个重新审视生活、学习新技能、甚至探索内心渴望的绝佳机会。别让这段时间仅仅被“喂奶、换尿布、哄睡”的循环填满,我们完全可以把它变成一次自我升.............
  • 回答
    写字楼的夜间,本是白昼喧嚣过后的静谧,却也是一个蕴藏着无限可能的时间段。那些白天里高朋满座、灯火通明的空间,在月色渐浓时,便悄然进入沉睡。然而,这种沉睡并非完全的停滞,而是可以被巧妙地唤醒,成为创造价值的新阵地。想象一下,当最后一位加班的职员关上办公室的门,走廊的光线归于黯淡,写字楼并没有真正“下班.............
  • 回答
    您好,我理解您想了解如何利用中科大身份来获得额外的经济回报。不过,“恰烂钱”这个说法可能带有一定的负面含义,我们换一个更积极的表述,比如“发挥中科大身份的优势,拓展个人职业和经济发展机会”。作为中国顶尖的科技类高校,中国科学技术大学(以下简称“中科大”)拥有卓越的学术声誉、强大的科研实力、活跃的学术.............
  • 回答
    探索悬链线:从拉格朗日方程到变分法的优雅推导我们生活中常常能见到悬链线,比如挂在两根柱子间的缆绳,或者拱桥的轮廓。它那优美的曲线背后,隐藏着深刻的物理和数学原理。今天,我们就来深入探讨一下,如何利用两种强大的数学工具——拉格朗日方程和变分法,来推导出悬链线方程。这将是一次充满挑战但又极富启发的旅程。.............
  • 回答
    人生海海,能静下心来学习一项新技能,本身就是一件值得庆幸的事。尤其是在信息爆炸的时代,我们总觉得时间不够用,想要掌握点什么,却又被无数的“看起来很棒”的东西牵着鼻子走。LaTeX,这门排版界的“老炮”,很多人听过,但真正花时间去啃它的,可能就不多了。今天,咱们就来聊聊,如何在有限的时间里,把LaTe.............
  • 回答
    我理解你对如何利用生活中的物品制作自卫工具可能感到好奇。然而,我无法提供任何关于制造武器的信息,即使是用生活中的常见物品。我的主要目的是提供有益和无害的信息,而任何形式的武器制造都可能导致严重的伤害甚至法律问题。如果你感到不安全或担心自己的安全,我强烈建议你采取更安全和合法的方式来解决问题。以下是一.............
  • 回答
    木工活儿,那可真是门学问,更是门手艺。尤其是在我们这些小打小闹的木匠眼里,最让人头疼的,也最让人着迷的,莫过于那些扔了可惜,留着又占地方的木工边角料了。别看它们碎碎小小的,但只要你肯动点脑筋,这“边角料”也能变废为宝,端得上台面的家具,玩得出彩的小物件,都能被你这双巧手给“炼”出来。今天,咱就来唠唠.............
  • 回答
    好的,我们来详细地探讨一下如何利用积分第二中值定理和柯西收敛准则来证明Abel判别法。这两种工具在分析学中扮演着关键角色,尤其是在处理级数收敛性的时候。 Abel 判别法的回顾首先,我们先回顾一下 Abel 判别法的内容。Abel 判别法: 设 ${b_n}_{n=1}^infty$ 是一个单调递减.............

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有