我试图制作一个将数字转换为二进制的程序。
代码:
#include<iostream>
#include<algorithm>
#include<bitset>
using namespace std;
int main()
{
int a;
string k;
bitset<CHAR_BIT> n;
cin>>a;
n=bitset<CHAR_BIT>(a);
cout<<n<<" ";
return 0;
}
该程序对 585 给出了错误的答案,因为它包含超过 6 个二进制数字。我怎么能有这么大的数字?