构建文本摘要应用
概述
在本指南中,您将学习如何构建和运行文本摘要应用程序。您将使用 Python 和 Bert Extractive Summarizer 构建应用程序,然后使用 Docker 设置环境并运行应用程序。
示例文本摘要应用程序使用 Bert Extractive Summarizer。该工具利用 HuggingFace Pytorch transformers 库来运行提取式摘要。它的工作原理是首先嵌入句子,然后运行聚类算法,找到最接近聚类中心点的句子。
先决条件
- 您已安装最新版本的 Docker Desktop。Docker 定期添加新功能,本指南的某些部分可能仅适用于最新版本的 Docker Desktop。
- 您拥有一个 Git 客户端。本节中的示例使用基于命令行的 Git 客户端,但您可以使用任何客户端。
获取示例应用程序
打开终端,并使用以下命令克隆示例应用程序的存储库。
$ git clone https://github.com/harsh4870/Docker-NLP.git
验证您是否克隆了存储库。
您应该在
Docker-NLP
目录中看到以下文件。01_sentiment_analysis.py 02_name_entity_recognition.py 03_text_classification.py 04_text_summarization.py 05_language_translation.py entrypoint.sh requirements.txt Dockerfile README.md
探索应用程序代码
文本摘要应用程序的源代码位于 Docker-NLP/04_text_summarization.py
文件中。在文本或代码编辑器中打开 04_text_summarization.py
以在以下步骤中探索其内容。
导入所需的库。
from summarizer import Summarizer
这行代码从
summarizer
包中导入Summarizer
类,这对于您的文本摘要应用程序至关重要。summarizer 模块实现了 Bert Extractive Summarizer,它利用 HuggingFace Pytorch transformers 库,该库在 NLP(自然语言处理)领域享有盛名。该库提供对 BERT 等预训练模型的访问,BERT 彻底改变了包括文本摘要在内的语言理解任务。BERT 模型或来自 Transformers 的双向编码器表示在理解语言中的上下文方面非常出色,它使用称为“注意力”的机制来确定句子中单词的重要性。对于摘要,该模型嵌入句子,然后使用聚类算法来识别关键句子,即最接近这些聚类中心点的句子,有效地捕获文本的主要思想。
指定主要执行块。
if __name__ == "__main__":
这个 Python 习语确保以下代码块仅在该脚本为主程序时运行。它提供了灵活性,允许脚本既可以作为独立程序运行,也可以作为导入的模块运行。
为持续输入创建一个无限循环。
while True: input_text = input("Enter the text for summarization (type 'exit' to end): ") if input_text.lower() == 'exit': print("Exiting...") break
无限循环不断提示您输入文本,确保交互性。当您键入
exit
时,循环将中断,使您能够有效地控制应用程序流程。创建 Summarizer 的实例。
bert_model = Summarizer()
在这里,您创建了名为
bert_model
的 Summarizer 类的实例。该实例现在已准备好使用 BERT 模型执行摘要任务,将嵌入句子和聚类的复杂过程简化为可访问的界面。生成并打印摘要。
summary = bert_model(input_text) print(summary)
您的输入文本由 bert_model 实例处理,然后返回摘要版本。这展示了 Python 高级库在使用最少代码启用复杂操作方面的强大功能。
创建
requirements.txt
。示例应用程序已包含requirements.txt
文件,以指定应用程序导入的必要模块。在代码或文本编辑器中打开requirements.txt
以探索其内容。... # 04 text_summarization bert-extractive-summarizer==0.10.1 ... torch==2.1.2
文本摘要应用程序需要
bert-extractive-summarizer
和torch
模块。summarizer 模块生成输入文本的摘要。这需要 PyTorch,因为用于生成摘要的底层 BERT 模型是在 PyTorch 中实现的。
探索应用程序环境
您将使用 Docker 在容器中运行应用程序。Docker 允许您容器化应用程序,为运行应用程序提供一致且隔离的环境。这意味着应用程序将在其 Docker 容器中按预期运行,而与底层系统差异无关。
要在容器中运行应用程序,需要 Dockerfile。Dockerfile 是一个文本文档,其中包含您将在命令行上调用的所有命令,以组装镜像。镜像是一个只读模板,其中包含创建 Docker 容器的说明。
示例应用程序已包含 Dockerfile
。在代码或文本编辑器中打开 Dockerfile
以探索其内容。
以下步骤解释了 Dockerfile
的每个部分。有关更多详细信息,请参见 Dockerfile 参考。
指定基础镜像。
FROM python:3.8-slim
此命令为构建奠定了基础。
python:3.8-slim
是 Python 3.8 镜像的轻量级版本,针对大小和速度进行了优化。使用此精简镜像会减少 Docker 镜像的整体大小,从而导致更快的下载速度以及更小的安全漏洞攻击面。这对于 Python 应用程序特别有用,因为您可能不需要完整的标准 Python 镜像。设置工作目录。
WORKDIR /app
WORKDIR
设置 Docker 镜像中的当前工作目录。将其设置为/app
,可确保 Dockerfile 中的所有后续命令(如COPY
和RUN
)在此目录中执行。这也有助于组织您的 Docker 镜像,因为所有与应用程序相关的文件都包含在特定目录中。将 requirements 文件复制到镜像中。
COPY requirements.txt /app
COPY
命令将requirements.txt
文件从本地计算机传输到 Docker 镜像。该文件列出了应用程序所需的所有 Python 依赖项。将其复制到容器中,使下一个命令(RUN pip install
)能够在镜像环境中安装这些依赖项。在镜像中安装 Python 依赖项。
RUN pip install --no-cache-dir -r requirements.txt
这行使用
pip
(Python 的包安装程序)来安装requirements.txt
中列出的包。--no-cache-dir
选项禁用缓存,通过不存储不必要的缓存数据来减小 Docker 镜像的大小。运行其他命令。
RUN python -m spacy download en_core_web_sm
此步骤特定于需要 spaCy 库的 NLP 应用程序。它下载了
en_core_web_sm
模型,这是一个用于 spaCy 的小型英语语言模型。虽然对于此应用程序不需要,但它被包含在内以与可能使用此 Dockerfile 的其他 NLP 应用程序兼容。将应用程序代码复制到镜像中。
COPY *.py /app COPY entrypoint.sh /app
这些命令将您的 Python 脚本和
entrypoint.sh
脚本复制到镜像的/app
目录中。这是至关重要的,因为容器需要这些脚本才能运行应用程序。entrypoint.sh
脚本特别重要,因为它决定了应用程序如何在容器内启动。设置
entrypoint.sh
脚本的权限。RUN chmod +x /app/entrypoint.sh
此命令修改
entrypoint.sh
的文件权限,使其可执行。此步骤对于确保 Docker 容器可以运行此脚本以启动应用程序至关重要。设置入口点。
ENTRYPOINT ["/app/entrypoint.sh"]
ENTRYPOINT
指令将容器配置为运行entrypoint.sh
作为其默认可执行文件。这意味着容器启动时,它会自动执行脚本。您可以通过在代码或文本编辑器中打开
entrypoint.sh
脚本进行探索。由于示例包含多个应用程序,因此该脚本允许您在容器启动时指定要运行的应用程序。
运行应用程序
要使用 Docker 运行应用程序
构建镜像。
在终端中,在
Dockerfile
所在目录中运行以下命令。$ docker build -t basic-nlp .
以下是该命令的分解
docker build
:这是从 Dockerfile 和上下文构建 Docker 镜像的主要命令。上下文通常是特定位置的一组文件,通常是包含 Dockerfile 的目录。-t basic-nlp
:这是标记镜像的选项。-t
标志代表标签。它为镜像分配一个名称,在本例中为basic-nlp
。标签是以后引用镜像的便捷方式,尤其是在将它们推送到注册表或运行容器时。.
: 这是命令的最后一部分,用于指定构建上下文。句点 (.
) 表示当前目录。Docker 将在该目录中查找 Dockerfile。构建上下文(在本例中为当前目录)将发送到 Docker 守护程序以启用构建。它包括指定目录中的所有文件和子目录。
有关更多详细信息,请参阅 docker build CLI 参考。
Docker 在构建镜像时会向您的控制台输出几个日志。您将看到它下载并安装依赖项。根据您的网络连接,这可能需要几分钟。Docker 确实具有缓存功能,因此后续构建可以更快。完成后,控制台将返回到提示符。
以容器形式运行镜像。
在终端中,运行以下命令。
$ docker run -it basic-nlp 04_text_summarization.py
以下是该命令的分解
docker run
: 这是用于从 Docker 镜像运行新容器的主要命令。-it
: 这是两个选项的组合-i
或--interactive
: 这即使在未附加的情况下也会保持标准输入 (STDIN) 打开。它使容器能够在前台运行并具有交互性。-t
或--tty
: 这会分配一个伪终端,本质上模拟一个终端,如命令提示符或 shell。它允许您与容器内的应用程序进行交互。
basic-nlp
: 这指定用于创建容器的 Docker 镜像的名称。在本例中,它是您使用docker build
命令创建的名为basic-nlp
的镜像。04_text_summarization.py
: 这是您要在 Docker 容器中运行的脚本。它被传递给entrypoint.sh
脚本,该脚本在容器启动时运行它。
有关更多详细信息,请参阅 docker run CLI 参考。
注意
对于 Windows 用户,在运行容器时可能会出现错误。验证
entrypoint.sh
中的行尾是否为LF
(\n
) 而不是CRLF
(\r\n
),然后重新构建镜像。有关更多详细信息,请参阅 避免意外语法错误,为容器中的文件使用 Unix 风格的行尾。容器启动后,您将在控制台中看到以下内容。
Enter the text for summarization (type 'exit' to end):
测试应用程序。
输入一些文本以获取文本摘要。
Enter the text for summarization (type 'exit' to end): Artificial intelligence (AI) is a branch of computer science that aims to create machines capable of intelligent behavior. These machines are designed to mimic human cognitive functions such as learning, problem-solving, and decision-making. AI technologies can be classified into two main types: narrow or weak AI, which is designed for a particular task, and general or strong AI, which possesses the ability to understand, learn, and apply knowledge across various domains. One of the most popular approaches in AI is machine learning, where algorithms are trained on large datasets to recognize patterns and make predictions. Artificial intelligence (AI) is a branch of computer science that aims to create machines capable of intelligent behavior. These machines are designed to mimic human cognitive functions such as learning, problem-solving, and decision-making.
总结
在本指南中,您学习了如何构建和运行文本摘要应用程序。您学习了如何使用 Python 和 Bert Extractive Summarizer 构建应用程序,然后使用 Docker 设置环境并运行应用程序。
相关信息
下一步
探索更多 自然语言处理指南。