复试打卡day29
1.单词

2.翻译
Transformer模型是一种基于注意力机制的神经网络结构,在自然语言处理领域取得了巨大的成功。与传统的循环神经网络相比,Transformer不依赖于序列的逐步计算,而是通过自注意力机制同时处理整个序列。这种结构不仅提高了模型的并行计算能力,还能够更有效地捕捉长距离依赖关系。在机器翻译任务中,Transformer模型能够根据句子中不同词语之间的关系动态分配注意力权重,从而生成更加准确的翻译结果。此外,Transformer结构还被广泛应用于文本生成、语音识别以及图像处理等领域。近年来,大规模预训练语言模型大多基于Transformer架构,这也推动了人工智能技术的快速发展。
3.代码
99构造序列
#include<bits/stdc++.h>
using namespace std;
int main()
{
int n;
while(cin>>n)
{
string temp;
for(int i=1;i<=n;i++)
{
if(i==1)
temp="11";
else
{
string prev=temp;
int offset=0;// 插入导致的索引偏移量
for(int j=0;j<prev.size()-1;j++)
{
int sum=(prev[j]-'0')+(prev[j+1]-'0');
if(sum==i)
{
int pos=j+1+offset;
temp.insert(pos,to_string(i));
offset++;// 插入后偏移量+1,补偿后续索引
}
}
}
}
cout<<temp<<endl;
}
return 0;
}
、每次插入要动态补偿偏移量
111.统计候选人的票数
#include<bits/stdc++.h>
using namespace std;
int main()
{
int count1=0,count2=0,count3=0;
int fake=0;
string a;
while(getline(cin,a))
{
if(a=="li")
count1++;
else if(a=="zhang")
count2++;
else if(a=="wang")
count3++;
else
fake++;
}
cout<<"li:"<<count1<<endl;
cout<<"zhang:"<<count2<<endl;
cout<<"wang:"<<count3<<endl;
cout<<"Wrong election:"<<fake<<endl;
return 0;
}
暴力解即可
113学生信息
#include<bits/stdc++.h>
using namespace std;
vector<int> grade;
bool compare(int i,int j)
{
if(grade[i]!=grade[j])
return grade[i]<grade[j];
}
int main()
{
int n;
cin>>n;
vector<int> num(n);
vector<string> name(n);
vector<string> sex(n);
vector<int> age(n);
grade.resize(n);
vector<int> vec(n);//存放索引排序
for(int i=0;i<n;i++)
{
cin>>num[i];
cin>>name[i];
cin>>sex[i];
cin>>age[i];
cin>>grade[i];
vec[i]=i;
}
sort(vec.begin(),vec.end(),compare);//索引根据成绩大小排好
for(int i=0;i<n;i++)
{
int idx=vec[i];
if(i!=n-1)
cout<<num[idx]<<" "<<name[idx]<<" "<<sex[idx]<<" "<<age[idx]<<" "<<grade[idx]<<endl;
else
cout<<num[idx]<<" "<<name[idx]<<" "<<sex[idx]<<" "<<age[idx]<<" "<<grade[idx];
}
return 0;
}
分清compare比较的为索引
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
所有评论(0)